JP2006163579A - 情報処理システム、情報処理装置及び情報処理方法 - Google Patents

情報処理システム、情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2006163579A
JP2006163579A JP2004351355A JP2004351355A JP2006163579A JP 2006163579 A JP2006163579 A JP 2006163579A JP 2004351355 A JP2004351355 A JP 2004351355A JP 2004351355 A JP2004351355 A JP 2004351355A JP 2006163579 A JP2006163579 A JP 2006163579A
Authority
JP
Japan
Prior art keywords
tactile
information
image
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004351355A
Other languages
English (en)
Inventor
Koichiro Takashima
宏一郎 高島
Shigeaki Maruyama
重明 丸山
Junichi Sekine
淳一 関根
Mikio Takenaka
幹雄 竹中
Junichi Ogasawara
順一 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004351355A priority Critical patent/JP2006163579A/ja
Publication of JP2006163579A publication Critical patent/JP2006163579A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Abstract


【課題】 情報利用者に対して画像を視るという視覚に加えて、画像に対応された触覚を付与できるようにすると共に、情報配信側で画像の所定部位に対応付けた触覚を受信側で再現性良く提示できるようにする。
【解決手段】 画像情報+音声情報と触覚提示用の触覚情報とを対応付けて配信処理する第1の情報処理装置#1iと、画像情報+音声情報及び触覚情報を受信し、当該画像情報+音声情報に基づいて画像を表示すると共に、画像に対応する触覚提示要求を受け付ける第2の情報処理装置#2jと、情報処理装置#1iと情報処理装置#2jとを接続する通信手段300とを備え、情報処理装置#2jは、触覚情報D1に基づいて触覚を発生する触覚発生手段40を有し、画像に対応する触覚提示要求を受け付けたとき、画像情報+音声情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段40を制御するものである。
【選択図】 図1

Description

本発明は、動画又は及び静止画を含む画像情報に結合された触覚提示用の触覚情報を処理するパーソナルコンピュータや、携帯電話機、デジタルカメラ、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置、テレビジョン等や、これを応用した通信システムに適用して好適な情報処理システム、情報処理装置及び情報処理方法に関する。
詳しくは、送信側の情報処理装置で予め対応付けられた動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを通信手段を通じて受信し、受信側で情報処理する場合に、受信側の情報処理装置に触覚発生用の制御手段を備え、受信側の表示部に表示された画像に対応する触覚の提示要求を受け付けたとき、画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御して、受信側の操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を付与できるようにすると共に、送信側で画像の所定部位に対応付けた触覚を受信側で再現性良く提示できるようにしたものである。
近年、ユーザ(操作者)は、携帯電話機やPDA(Personal Digital Assistants)等の情報携帯端末装置に様々なコンテンツを取り込み、それを利用するようになってきた。これらの携帯端末装置には入力装置が具備される。入力装置にはキーボードや、JOGダイヤル等の入力手段、表示手段を合わせたタッチパネルなどが使用される場合が多い。
また、アクチュエータを組み合わせた入出力装置も開発されている。アクチュエータは、2層以上のひずみ量の異なる圧電素子、又は、圧電素子と非圧電素子とを貼り合わせ、この貼合体の圧電素子に振動制御電圧を印加したとき、双方のひずみ量の差によって生じる貼合体の曲げ変形を力学的に利用するものである(振動体機能)。アクチュエータには、いわゆるバイモルフアクチュエータや、ユニモルフアクチュエータ、円盤アクチュエータ(これらを総括して、以下、単に圧電アクチュエータという)等が使用される場合が多い。
この種の圧電アクチュエータを備えた電子機器に関して、特許文献1には、タッチパネル付きの表示装置が開示されている。この表示装置によれば、押圧力検出部及び触覚応答付与駆動部を備え、タッチパネルの所定の位置で一定以上の押圧力を検出したとき、触覚応答付与駆動部を動作させ、タッチパネルに振動を伝達して、操作者に触覚を提示するようになされる。このように表示装置を構成すると、なぞり操作や、タッチパネルに軽く触れただけでは、触覚提示がなされないので、誤動作なく、明確な操作感覚が得られるというものである。
また、触覚機能付きの情報携帯端末装置に関連して特許文献2には、触覚通信装置が開示されている。この触覚通信装置によれば、指等の接触位置や動きを検出する接触検出手段と、触覚情報に基づいて振動を発生し触覚刺激を提示する触覚提示手段とを備え、送信側の触覚通信装置において、接触検出手段が操作者の指等の接触位置や動きを検出して触覚情報を発生する。送信側の触覚通信装置は受信側の触覚通信装置に、触覚情報を送信する。受信側の触覚通信装置では、触覚情報を受信し、これに基づいて触覚提示手段を制御する。受信側の触覚通信装置の触覚提示手段は、触覚情報に基づいて受信側の操作者の指等に振動を伝播し触覚刺激を提示するようになされる。このように触覚通信装置を構成すると、相手方が接触検出手段に触れた指等の感覚を受信側の触覚提示手段で体験できるというものである。
更に、特許文献3には、情報端末機、パーソナル受信器及び情報伝達システムが開示されている。この情報伝達システムによれば、相手方の情報処理装置等からの呼出しが受信可能な情報端末機と、アクチュエータが取り付けられて、操作者の腕等に装着可能なパーソナル受信器とを備え、相手方の情報処理装置から情報端末機に呼出しが有って当該情報端末機が着呼したとき、その着信信号を情報端末機からパーソナル受信器へ転送するようになされる。パーソナル受信器では、着信信号に基づいてアクチュエータを駆動する。アクチュエータが駆動することで操作者の腕に振動が伝播する。このように情報伝達システムを構成すると、相手方情報処理装置から呼出しが有ったことを聴覚ハンデ者においても、確認できるというものである。
特開平 10−293644号公報(第4頁 図2) 特開2002−232317号公報(第3頁 図2) 特開2003−249980号公報(第4頁 図6)
ところで、従来例に係る情報処理装置や、携帯電話機、情報携帯端末装置、テレビ受信機等の電子機器及びこれらを応用した情報処理システムによれば、以下のような問題がある。
i.従来からの放送システムによれば、静止画あるいは動画等の映像情報及び音情報を遠隔地の受信側者のテレビ受信機等に送信し、受信者側では、テレビ受信機で静止画あるいは動画等の映像情報及び音情報を受信して視聴するようになされる。しかしながら、受信者側でテレビ受信機等を利用して画像を視るという視覚に加えて、画像に触れたという行為に対する触覚を付与できていないのが現状である。
ii.将来、様々な電子機器において、触覚を自在に発生することが一般的に普及した場合に、映像情報に触覚情報をリンクさせて送信可能なシステムを構築しようとした場合に、特許文献1〜特許文献3に見られるような触覚通信機能をそのまま導入しようとすると、触覚情報を占める送信情報量が増加してしまうというおそれがある。
そこで、この発明はこのような従来の課題を解決したものであって、受信側の操作者等に対して画像を視るという視覚に加えて、画像に触れたという行為に対する触覚を付与できるようにすると共に、送信側で画像の所定部位に対応付けた触覚を受信側で再現性良く提示できるようにした情報処理システム、触覚入力機能付き情報処理装置及び情報処理方法を提供することを目的とする。
上述した課題は、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する第1の情報処理装置と、画像情報及び触覚情報を受信し、当該画像情報に基づいて画像を表示すると共に、その画像に対応する触覚の提示要求を受け付ける第2の情報処理装置と、第1の情報処理装置と第2の情報処理装置とを接続する通信手段とを備え、第2の情報処理装置は、触覚情報に基づいて触覚を発生する触覚発生手段を有し、画像に対応する触覚の提示要求を受け付けたとき、画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御することを特徴とする情報処理システムによって解決される。
本発明に係る情報処理システムによれば、第1の情報処理装置と、第2の情報処理装置とが通信手段を通じて接続される。第1の情報処理装置は、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する。これを前提にして、第2の情報処理装置は、第1の情報処理装置から画像情報及び触覚情報を受信し、当該画像情報に基づいて画像を表示すると共に、その画像に対応する触覚の提示要求を受け付ける。第2の情報処理装置は、触覚の提示要求を受け付けたとき、画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御するようになされる。
従って、受信側の操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で画像の所定部位に対応付けた触覚を受信側で体験できるようになる。
本発明に係る情報処理装置は、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する送信側の情報処理装置に対して通信手段を通じて接続可能な触覚入力機能付きの情報処理装置であって、触覚発生手段と、送信側の情報処理装置から画像情報及び触覚情報を受信する受信手段と、この受信手段より受信した画像情報に基づいて画像を表示する表示手段と、この表示手段に表示された画像に対応する触覚の提示要求を受け付ける入力手段と、この入力手段によって触覚の提示要求を受け付けたとき、画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御する制御手段とを備えることを特徴とするものである。
本発明に係る情報処理装置によれば、送信側の情報処理装置で予め対応付けられた動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを通信手段を通じて受信し情報処理する場合に、受信手段は、送信側の情報処理装置から画像情報及び触覚情報を受信する。表示手段は、受信手段より受信した画像情報に基づいて画像を表示する。入力手段は、表示手段に表示された画像に対応する触覚の提示要求を受け付ける。これを前提にして、制御手段は、入力手段によって触覚の提示要求が受け付けられたとき、当該画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御する。触覚発生手段は、制御手段の制御を受けて触覚を発生する。
従って、操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で画像の所定部位に対応付けた触覚を当該情報処理装置で再現性良く提示できるようになる。
本発明に係る情報処理方法は、第1の情報処理系で、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けするステップと、対応付けられた画像情報及び触覚情報を通信手段を通じて第2の情報処理系に送信するステップと、第2の情報処理系で、画像情報及び触覚情報を受信するステップと、受信した画像情報に基づいて画像を表示するステップと、表示された画像に対応する触覚の提示要求を受け付けるステップと、その画像に対応する触覚の提示要求を受け付けたとき、その画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚提示制御をするステップとを有することを特徴とするものである。
本発明に係る情報処理方法によれば、送信側の情報処理系で予め対応付けられた動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを通信手段を通じて受信しその情報処理をする場合に、受信側の操作者等に対して画像に対応付けられた触覚を再現性良く提示できるようになる。従って、送信側で画像の所定部位に対応付けた触覚を受信側で体験できるようになる。
本発明に係る情報処理システム及び情報処理方法によれば、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する第1の情報処理装置に対して、通信手段を通じて接続された第2の情報処理装置を備え、第2の情報処理装置は、第1の情報処理装置から画像情報及び触覚情報を受信し、当該画像情報に基づいて画像を表示すると共に、画像に対応する触覚の提示要求を受け付けたとき、当該画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御するようになされる。
この構成によって、受信側の操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。従って、送信側で画像の所定部位に対応付けた触覚を受信側で体験できるようになる。
本発明に係る情報処理装置によれば、送信側の情報処理装置で予め対応付けられた動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを通信手段を通じて受信処理する場合に制御手段を備え、この制御手段は、表示部に表示された画像に対応する触覚の提示要求を受け付け、当該画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように触覚発生手段を制御するようになされる。
この構成によって、操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。従って、送信側で画像の所定部位に対応付けた触覚を当該情報処理装置で再現性良く提示できるようになる。
続いて、この発明に係る情報処理システム、情報処理装置及び情報処理方法の一実施例について、図面を参照しながら説明をする。
図1は本発明に係る実施の形態としての情報処理システム1の構成例を示すブロック図である。
図1に示す情報処理システム1は、動画又は及び静止画を含む画像情報に対応付けられた触覚提示用の触覚情報を処理するシステムである。情報処理システム1は、これらの画像情報に結合された触覚提示用の触覚情報を処理するパーソナルコンピュータ(以下単にパソコンという)や、携帯電話機、デジタルカメラ、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置、テレビジョン受信機等、また、これらを応用した通信システムに適用して好適である。画像情報には、一般家庭用のデジタルカメラや、業務用の放送局向けカメラ等で被写体を映した映像や、パソコンにより作成したCADデータ等を含んでいる。
情報処理システム1では、既存の通信手段(通信基盤)300が応用される。通信手段300には、有線通信手段及び無線通信手段が含まれる。例えば、情報処理システム1を応用して触覚テレビ電話システムや、感動触覚電話システム、触覚ネットショッピングシステム、触覚機能付きゲーム配信システム、触覚機能付き情報配信システム等を構成する場合には、既存の有線及び無線方式の公衆電話回線網が利用される。また、触覚テレビ放送システムを構成する場合には、既存の衛星放送システムや、デジタル地上波放送システム、アナログ放送システム等が利用される。通信手段300は、第1の情報処理装置#1i(i=1〜n;以下で単に第1の情報処理系Iともいう)と第2の情報処理装置#2j(j=1〜m;以下で単に第2の情報処理系IIともいう)とを有線方式又は無線方式により電気的に接続できるものであればどんな通信方式であってもよい。
この情報処理システム1でその送信側となる情報処理装置#1iが通信手段300に接続され、動画又は及び静止画を含む画像情報DINと触覚提示用の触覚情報D1とを対応付けて受信側へ送信処理するようになされる。情報処理装置#1iは、例えば、画像取得手段3’、制御手段15’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’を備えて構成される。
入力手段24’は、画像取得手段3’を操作するための操作データD3を入力したり、モード設定時、画像触覚モード等を設定するように操作される。例えば、自分の顔画像を撮影して画像情報DINを取得し、相手方に送信しようとする場合に、正面向き、横向き、斜め後ろ向き等の3カットについて、触覚提示位置を制御手段15’に指示するように操作される。
画像取得手段3’は、被写体の画像を取得して画像情報DINを出力する。例えば、自分の顔画像を撮影して画像情報DINを取得し、相手方に送信しようとする場合に、正面向き、横向き、斜め後ろ向き等の3カットについて、動画又は静止画に係る画像情報DINを取得する。音声入出力手段54’は、操作者の音声を入力したり、相手方からの音声を出力する。音声入出力手段54’には音声入出力処理回路や、スピーカー、マイクロフォン等が使用される。
記憶手段35’には、相手方の情報処理装置に指示するための触覚情報D1が格納される。触覚情報D1には、受信側で振動波形パターンデータDcの素材データとなる波形パターンデータDP0を記憶手段から読み出して振動制御信号を作成する旨を指示するための振動作成指示データDPXが含まれている。触覚情報D1には、振動作成指示データDPXの他に、相手方の情報処理装置を区分するアプリケーション情報等が含まれている。
振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。これは、受信側の情報処理装置#2jで周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号を作成するためである。記憶手段35’には、触覚情報D1の他に画像取得手段3’によって取得された、被写体の画像情報DINが格納される。
表示手段29’は、画像取得手段3’によって取得された、例えば、操作者(被写体)の顔画像情報に基づく表示データD2により操作者(自分)の顔画像等の映像を表示したり、相手方の情報処理装置#2jから送られてきた通信相手の顔画像等を表示するようになされる。
制御手段15’は、画像取得手段3’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’の入出力を制御する。例えば、制御手段15’は、画像取得手段3’を制御して被写体の動画又は及び静止画を含む画像情報DIN等の画像取得処理を実行し、その後、画像情報DINと触覚情報D1とを対応付ける。対応付け処理は、例えば、顔画像の正面向き、横向き及び斜め後ろ向き等の3カット(静止画で3枚の映像に相当)について、各々触覚が異なるような振動作成指示データDPXが得られるような触覚情報D1が被写体の動画又は及び静止画を含む画像情報DIN等に付加される。この付加後の情報を「触覚情報D1+画像情報DIN」と記述する。そして、制御手段15’は、相手方の情報処理装置#2jに触覚情報D1+画像情報DINを符号化して送信する処理を実行する。
通信モデム19’は、有線通信手段又は無線通信手段等の通信回線を接続して相手方と通信処理を実行する。例えば、通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+画像情報DINを相手方の情報処理装置#2jに送信する。
情報処理システム1でその受信側には、情報処理装置#2jが配置される。情報処理装置#2jは、送信側の情報処理装置#1iに対して通信手段300を通じて接続可能な装置である。情報処理装置#2jには、触覚入力機能付きのパソコン、携帯電話機、デジタルカメラ、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置、テレビジョン受信機等が使用され、これらは通信手段300に接続され、触覚情報D1+画像情報DINを受信し、当該画像情報DINに基づいて受信画像を表示すると共に、当該受信画像に対応する触覚提示要求を受け付け、その提示要求に基づいて触覚を提示するようになされる。
情報処理装置#2jは、例えば、画像取得手段3、制御手段15、通信モデム19、触覚機能付きの入力手段24、表示手段29、記憶手段35、触覚発生手段40及び音声入出力手段54を備えて構成される。この例で、通信モデム19は受信手段を構成し、送信側の情報処理装置#1iから触覚情報D1+画像情報DINを受信して復号化処理する。表示手段29には、通信モデム19より受信した画像情報DINに基づいて受信画像を表示する。例えば、相手方の情報処理装置#1iから送られてきた画像情報DINに基づく表示データD2により通信相手の顔画像等を表示するようになされる。
触覚機能付きの入力手段24は、受信画像の所定部位への接触を検出して、表示手段29に表示された受信画像に対応する触覚の提示要求を受け付けるように操作される。入力手段24には、タッチパネルやシートセンサ、力検出センサ、圧電体等が使用される。タッチパネルやシートセンサ等は、操作者の指の接触位置を検出するように使用される。力検出センサは、操作者の指の押下力を検出するように使用される。圧電体は触覚発生手段40を構成し、触覚情報D1に基づいて発生された振動制御信号より振動を発生し、操作者の指等に触覚を提示するように使用される。
この情報処理装置#2jでは、受信画像に対応する触覚の提示要求を受け付けたとき、触覚発生手段40を制御するようになされる。例えば、制御手段15は、入力手段24から触覚提示要求を入力し、当該画像情報DINに対応付けられた触覚情報D1に基づいて操作者の指(操作体)に触覚を提示するように触覚発生手段40を制御する。
記憶手段35には、振動作成指示データDPXをアドレスにして読み出し可能な複数種類の波形パターンデータDP0が格納される。この例では、振動波形パターンデータDcを構成する素材データとして、触覚提示用の複数種類の周波数fx及び振幅Axの波形パターンデータDP0が準備されている。これは、相手方の情報処理装置#1iで要求する触覚情報D1に対応する振動波形パターンデータDcを受信側の情報処理装置#1iで再現(構築)するためである。このように、送信側から受信側へ振動作成指示データDPXを符号化して送信することにより、振動波形パターンデータDcを送信側から受信側へ直接送信する場合に比べて送信情報を少なくすることができる。
なお、記憶手段35には、複数種類の波形パターンデータDP0の他に、当該情報処理装置#2jが送信側となった場合に、画像取得手段3によって取得した被写体の画像情報DINや、相手方の情報処理装置#1i等に送信するための触覚情報D1等が格納される。
この例で通信モデム19が送信側の情報処理装置#1iから触覚情報D1を受信して復号化処理する場合であって、制御手段15は、通信モデム19によって受信された触覚情報D1に基づいて記憶手段35から波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
例えば、制御手段15は、相手方の情報処理装置#1iから受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御手段15は、更に、振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出す。制御手段15は、記憶手段35から読み出した複数種類の波形パターンデータDP0を合成し、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号を作成する。
振動制御信号は、制御手段15から触覚発生手段40を構成する圧電素子へ供給される。圧電素子は、振動制御信号に基づいて入力手段24又は表示手段29を振動するようになされる。これにより、入力手段24又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。
このようにすると、送信側の情報処理装置#1iから作成指示された触覚提示用の振動波形パターンデータDcを当該受信側の情報処理装置#2jの制御手段15で作成することができ、しかも、情報処理装置#1iで触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcを含む触覚情報D1を当該情報処理装置#2jへ送信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
また、情報処理装置#2jの制御手段15で複数種類の波形パターンデータDP0を組み合わせることによって多種多様の触覚を発生できるようになる。しかも、送信側の情報処理装置#1iより送信される触覚情報D1の内容の差異によって受信側の個々の情報処理装置#2jの触覚発生手段40により発生される触覚の種類を異ならせることができる。
次に、第1の実施例に係る情報処理方法について説明する。図2(A)及び(B)は、第1の実施例としての情報処理例を示すフローチャートである。この例で図1に示した第1の情報処理系I(送信側)には、情報処理装置#1iが配置され、第2の情報処理系II(受信側)には、情報処理装置#2jが配置される。送信側の情報処理装置#1iと受信側の情報処理装置#2jとは通信手段300を通じて接続される。情報処理装置#2jでは、予めノーマルモード又は画像触覚モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、情報処理装置#2jで、受信画像の所定部位への接触を検出したとき、その画像情報DINに対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示する場合を例に挙げる。
これらを情報処理条件にして、図2Aに示す送信側のフローチャートのステップA11で送信側の情報処理系Iは、画像取得処理を実行する。例えば、送信側の操作者本人の顔画像を撮影して画像情報DINを取得し、相手方に送信しようとする場合に、正面向き、横向き、斜め後ろ向き等の3カットについて、触覚提示位置を制御手段15’に指示するように入力手段24’が操作される。
入力手段24’は、画像取得手段3’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいて画像取得手段3’を制御する。画像取得手段3’は、操作者本人(被写体)の顔画像に関して動画又は静止画を含む画像情報DIN等を取得して制御手段15’や記憶手段35’等に出力する。このとき、表示手段29’には、画像取得手段3’によって取得された、操作者本人の顔画像情報に基づく表示データD2により操作者(自分)の顔画像等の映像が表示される。
その後、ステップA12で情報処理系Iは、動画又は静止画を含む画像情報DINと触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、操作者本人の顔画像の正面向き、横向き及び斜め後ろ向き等の3カット(静止画で3枚の映像に相当)について、各々触覚が異なるような振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1が操作者本人の動画又は静止画を含む画像情報DIN等に付加される。画像情報DINに付加される触覚情報D1には、振動作成指示データDPXの他に、相手方の情報処理装置#2jを区分するアプリケーション情報等が含まれる。これは、相手方の情報処理装置#2jに正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップA13で情報処理系Iは、先に対応付けられた触覚情報D1+画像情報DINを通信手段300を通じて、情報処理系IIに符号化して送信する。例えば、制御手段15’は、通信モデム19’を制御して相手方の情報処理装置#2jを呼出し通信回線を接続する。通信モデム19’は、有線通信手段又は無線通信手段等の通信回線を相手方の情報処理装置#2jに接続して相手方と通信処理を実行する。通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+画像情報DINを相手方の情報処理装置#2jに送信する。
また、第2の情報処理系IIでは、図2Bに示す受信側のフローチャートのステップB11で、まず、ノーマルモード又は画像触覚モードのいずれかの動作モードが設定される。動作モードは、受信側の操作者により入力手段24が操作されて制御手段15に設定される。
そして、ステップB12で通信モデム19は、制御手段15の制御を受けて、相手方の情報処理装置#1iから触覚情報D1+画像情報DINを受信して復号化処理する。触覚情報D1+画像情報DINは制御手段15で分離され、画像情報DINは表示手段29を駆動する表示データD2に変換される。触覚情報D1は、画像触覚モードが選択された場合に備えて制御手段15にセットされる。
その後、ステップB13に移行して、先に設定された動作モードに基づいて制御を分岐する。画像触覚モードが設定された場合は、ステップB14及びB15に移行する。ステップB14では、先に受信した画像情報DINに基づいて受信画像を表示する。例えば、表示手段29は、相手方の情報処理装置#1iから送られてきた顔画像情報に基づく表示データD2により通信相手の顔画像等を表示する。
これに並行して、ステップB15で制御手段15は、表示手段29に表示されている受信画像に対応する触覚の提示要求を受け付ける。このとき、触覚機能付きの入力手段24は、受信画像の所定部位への操作者の指等の接触を検出して、表示手段29に表示された受信画像に対応する触覚の提示要求を受け付けるように操作される。
触覚機能付きの入力手段24によって受信画像に対応する触覚提示要求を受け付けた場合は、ステップB16に移行する。ステップB16で制御手段15は、その画像情報DINに対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示するように触覚提示制御を実行する。例えば、制御手段15は、相手方の情報処理装置#1iから受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御手段15は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。制御手段15は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号を作成する。
振動制御信号は、制御手段15から触覚発生手段40を構成する圧電素子へ供給される。圧電素子は、振動制御信号に基づいて入力手段24又は表示手段29を振動するようになされる。これにより、入力手段24又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。その後、ステップB18に移行する。
なお、ステップB13でノーマルモードが設定された場合は、ステップB17に移行して触覚提示処理を伴わない画像表示処理を実行する。その後、ステップB18に移行して制御手段15は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は画像触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップB13に戻って、上述した処理を繰り返すようになされる。
このように、第1の実施例に係る情報処理システム1によれば、送信側の情報処理装置#1iと、受信側の情報処理装置#2jとが通信手段300を通じて接続される。情報処理装置#1iは、動画又は及び静止画を含む画像情報DINと触覚提示用の触覚情報D1とを対応付けて送信処理する。これを前提にして、情報処理装置#2jは、情報処理装置#1iから触覚情報D1+画像情報DINを受信し、当該画像情報DINに基づいて画像を表示すると共に、その画像に対応する触覚の提示要求を受け付ける。情報処理装置#2jは、触覚の提示要求を受け付けたとき、画像情報DINに対応付けられた触覚情報D1に基づいて操作体に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、受信側の操作者等に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で送信画像の所定部位に対応付けた触覚を受信側で体験できるような情報処理システムを構築することができる。このような情報処理システムは既存の有線又は及び無線方式の公衆電話回線網等を利用した触覚テレビ電話システムに十分応用できる。
しかも、送信側の情報処理装置#1iから受信側の情報処理装置#2jへ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを情報処理装置#1iから情報処理装置#2jへ直接送信する場合に比べて送信情報を少なくすることができる。
また、第1の実施例に係る情報処理装置及び情報処理方法によれば、送信側の情報処理装置#1iから触覚情報D1+画像情報DINを通信手段300を通じて受信し、その情報処理する場合に、制御手段15は、触覚機能付きの入力手段24によって触覚の提示要求が受け付けられたとき、当該画像情報DINに対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、制御手段15の制御を受けて触覚を発生する。
従って、操作者に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で送信画像の所定部位に対応付けた触覚を当該情報処理装置#2jで再現性良く提示できるようになる。情報処理装置#2jは上述の触覚テレビ電話システムや、触覚ネットショッピングシステム、触覚ゲーム情報配信システム及び触覚地図情報配信システム等に十分応用できる。
図3は、第2の実施例としての情報処理例を示すフローチャートである。この実施例では、図1に示した第1の情報処理系Iで触覚情報D1の他に音情報AINを第2の情報処理系IIに送信し、第2の情報処理系IIは、音声触覚モード機能付きの携帯電話機が配置され、第1の情報処理系Iから受信した触覚情報D1を処理すると共に音情報AINを再生出力するようになされる。
例えば、情報処理装置#2jを応用して音声触覚モード機能付きの携帯電話機を構成し、その携帯電話機において、その通信モデム19は、送信側の情報処理装置#1iから送信されてきた触覚情報D1+音情報AINを受信して復号化処理する。この場合、携帯電話機の音再生手段を構成する音声入出力手段54では、通信モデム19より受信した音情報AINに基づいてその音を再生出力するが、制御手段15は、特定の音情報AINに対応した触覚提示処理を実行する。
もちろん、送信側の情報処理系Iと受信側の情報処理系IIとが通信手段300を通じて接続される。受信側の情報処理系IIでは、予めノーマルモード又は音声触覚モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、受信側の情報処理系IIで、特定の受信音の出力を検出したとき、その音情報AINに対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示する場合を例に挙げる。
これらを情報処理条件にして、図3Aに示す送信側のフローチャートのステップA21で送信側の情報処理系Iは、音声取得処理を実行する。例えば、送信側の操作者本人の音声を集音して音情報AINを取得し、相手方に送信しようとする場合に、例えば、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語について、触覚提示タイミングを制御手段15’に指示するように入力手段24’が操作される。
入力手段24’は、音声入出力手段54’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいて音声入出力手段54’を制御する。音声入出力手段54’は、操作者本人(被写体)の音声に関して話声を含む音情報AIN等を取得して制御手段15’や記憶手段35’等に出力する。
その後、ステップA22で情報処理系Iは、話声を含む音情報AINと触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、操作者本人の音声の中の複数種類の感動言語について、各々触覚が異なるような振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1が操作者本人の音声を含む音情報AIN等に付加される。この音情報AINに付加される触覚情報D1には、振動作成指示データDPXの他に、相手方の情報処理装置#2jを区分するアプリケーション情報等が含まれる。これは、相手方の情報処理装置#2jに正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップA23で情報処理系Iは、先に対応付けられた触覚情報D1+音情報AINを通信手段300を通じて、情報処理系IIに符号化して送信する。例えば、制御手段15’は、通信モデム19’を制御して相手方の情報処理装置#2jを呼出し通信回線を接続する。通信モデム19’は、有線通信手段又は無線通信手段等の通信回線を相手方の情報処理装置#2jに接続して相手方と通信処理を実行する。通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+音情報AINを相手方の情報処理装置#2jに送信する。
また、第2の情報処理系IIでは、図3Bに示す受信側のフローチャートのステップB21で、まず、ノーマルモード又は音声触覚モードのいずれかの動作モードが設定される。動作モードは、受信側の操作者により入力手段24が操作されて制御手段15に設定される。
そして、ステップB22で通信モデム19は、制御手段15の制御を受けて、相手方の情報処理装置#1iから触覚情報D1+音情報AINを受信して復号化処理する。触覚情報D1+音情報AINは制御手段15で分離され、音情報AINは音声入出力手段54に出力される。触覚情報D1は、音声触覚モードが選択された場合に備えて制御手段15にセットされる。
その後、ステップB23に移行して、先に設定された動作モードに基づいて制御を分岐する。音声触覚モードが設定された場合は、ステップB24及びB25に移行する。ステップB24では、先に受信した音情報AINに基づいて受信音を出力する。例えば、音声入出力手段54では、相手方から送られてきた音情報AINに基づく話声が図示しないスピーカー等により放音される。
これに並行して、ステップB25で制御手段15は、音声入出力手段54で放音される感動言語等の音情報AINに対応する触覚提示タイミングを検出する。このとき、触覚機能付きの入力手段24は、操作者の耳等の接触を検出して、スピーカー等から放音される感動言語に対応する触覚提示タイミングを検出するように操作される。
触覚機能付きの入力手段24によって操作者の耳等の接触を検出した場合は、ステップB26に移行する。ステップB26で制御手段15は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に係る音情報AINに対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚提示制御を実行する。
例えば、制御手段15は、相手方の情報処理装置#1iから受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御手段15は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。制御手段15は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号を作成する。
振動制御信号は、制御手段15から触覚発生手段40を構成する圧電素子に供給される。圧電素子は、振動制御信号に基づいて入力手段24や表示手段29等を振動するようになされる。これにより、入力手段24や表示手段29等に触れている操作者の耳や指等に触覚を提示できるようになる。その後、ステップB28に移行する。
なお、ステップB23でノーマルモードが設定された場合は、ステップB27に移行して触覚提示処理を伴わない音再生出力処理を実行する。その後、ステップB28に移行して制御手段15は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は音声触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップB23に戻って、上述した処理を繰り返すようになされる。
このように、第2の実施例に係る情報処理システムによれば、送信側の情報処理装置#1iと、音声触覚モード機能付きの携帯電話機等の受信側の情報処理装置#2jとが通信手段300を通じて接続される。情報処理装置#1iは、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音情報AINと触覚提示用の触覚情報D1とを対応付けて送信処理する。これを前提にして、情報処理装置#2jは、情報処理装置#1iから触覚情報D1+音情報AINを受信し、当該音情報AINに基づいて放音すると共に、その感動言語に係る音情報AINに対応する触覚提示タイミングを検出する。情報処理装置#2jは、触覚提示タイミングを検出したとき、音情報AINに対応付けられた触覚情報D1に基づいて操作者の耳に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、受信側の操作者等に対して相手方からの話声を聞くという聴覚に加えて、感動言語等の音情報AINに対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音情報AINに対応付けた触覚を受信側で体験できるような情報処理システムを構築することができる。このような情報処理システムは既存の有線又は及び無線方式の公衆電話回線網等を利用した感動触覚電話システムに十分応用できる。
しかも、送信側の情報処理装置#1iから受信側の情報処理装置#2jへ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを情報処理装置#1iから情報処理装置#2jへ直接送信する場合に比べて送信情報を少なくすることができる。
また、第2の実施例に係る音声触覚モード機能付きの携帯電話機及びその情報処理方法によれば、送信側の情報処理装置#1iから触覚情報D1+音情報AINを通信手段300を通じて受信し、その情報処理する場合に、制御手段15は、触覚提示タイミングを検出したとき、当該音情報AINに対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、制御手段15の制御を受けて触覚を発生する。
従って、操作者に対して相手方からの話声を聞くという聴覚に加えて、感動言語等の音情報AINに対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音情報AINに対応付けた触覚を受信側で体験できるような情報処理システムを構築することができる。このような音声触覚モード機能付きの携帯電話機は、既存の有線又は及び無線方式の公衆電話回線網等を利用した感動触覚電話システムに十分応用できる。
図4は、第3の実施例としての情報処理例を示すフローチャートである。この実施例では、図1に示した第1の情報処理系Iで触覚情報D1の他に画像情報DIN+音情報AINを第2の情報処理系IIに送信し、第2の情報処理系IIは、画像音声触覚モード機能付きの情報処理装置#2jが配置され、第1の情報処理系Iから受信した触覚情報D1を処理すると共に画像情報DINの表示処理及び音情報AINの再生処理をするようになされる。
例えば、情報処理装置#2jを応用して画像音声触覚モード機能付きのテレビ受信機を構成し、そのテレビ受信機において、その通信モデム19は、送信側の情報処理装置#1iから送信されてきた触覚情報D1+画像情報DIN+音情報AINを受信して復号化処理する。この場合、テレビ受信機の表示手段29では、通信モデム19より受信した画像情報DINに基づいてその映像を表示し、音声入出力手段54では、通信モデム19より受信した音情報AINに基づいてその音を再生出力するが、制御手段15は、特定の画像情報DIN又は及び音情報AINに対応した触覚提示処理を実行する。
もちろん、送信側の情報処理系Iと画像音声触覚モード機能付きのテレビ受信機等の受信側の情報処理系IIとが既存のデジタル地上波放送システム、衛星放送システム又はアナログ放送システム等を利用した通信手段300を通じて接続される。図1において、通信モデム19’は送信設備に置き換えられる。受信側の情報処理系IIでは、予めノーマルモード又は画像音声触覚モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、受信側のテレビ受信機等で、特定の受信音の出力を検出したとき、その画像情報DIN又は音情報AINに対応付けられた触覚情報D1に基づいて操作者の椅子等に触覚を提示する場合を例に挙げる。
これらを情報処理条件にして、図4Aに示す送信側のフローチャートのステップA31で送信側の情報処理系Iは、画像取得処理を実行し、これに並行して音声取得処理を実行する。例えば、放送局で出演者の映像を撮影して画像情報DINを取得し、その出演者の音声やバックグランドミュージック等を集音して音情報AINを取得し、受信加入者に放送しようとする場合に、例えば、特定の映像場面や台詞、バックグランドミュージック等について、触覚提示タイミングを制御手段15’に指示するように入力手段24’が操作される。
入力手段24’は、画像取得手段3’及び音声入出力手段54’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいて画像取得手段3’及び音声入出力手段54’を制御する。画像取得手段3’は、出演者の映像に関する画像情報DIN等を取得して制御手段15’や記憶手段35’等に出力し、音声入出力手段54’は、出演者の音声に関して台詞等の話声を含む音情報AIN等を取得して制御手段15’や記憶手段35’等に出力する。
その後、ステップA32で情報処理系Iは、出演者の画像情報DIN+音情報AINと触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、出演者の台詞の中の複数種類の特定言語について、各々触覚が異なって、振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1が出演者の画像情報DIN+音情報AIN等に付加される。
この画像情報DIN+音情報AINに付加される触覚情報D1には、振動作成指示データDPXの他に、放送加入者の情報処理装置#2j、この例では、画像音声触覚モード機能付きのテレビ受信機を区分するアプリケーション情報等が含まれる。これは、放送加入者のテレビ受信機等に正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップA33で情報処理系Iは、先に対応付けられた触覚情報D1+画像情報DIN+音情報AINを通信手段300を通じて、画像音声触覚モード機能付きのテレビ受信機に符号化して送信する。例えば、第1の情報処理装置#1iの制御手段15’は、通信手段19’に代わる送信設備を制御して放送加入者のテレビ受信機のアンテナに向けて放送電波を輻射する。送信設備では、制御手段15’によって処理された触覚情報D1+画像情報DIN+音情報AINを多重変調処理等を実行して送信アンテナに出力する。
また、放送加入者のテレビ受信機(第2の情報処理系II)では、図4Bに示す受信側のフローチャートのステップB31で、まず、ノーマルモード又は画像音声触覚モードのいずれかの動作モードが設定される。動作モードは、テレビ受信機の入力手段24が操作者により操作されて制御手段15に設定される。
そして、ステップB32で通信モデム19に代わる受信チューナ装置は、制御手段15の制御を受けて、放送局から送られてくる触覚情報D1+画像情報DIN+音情報AINを受信して復号化処理する。触覚情報D1+画像情報DIN+音情報AINは、例えば、制御手段15で分離され、画像情報DINは表示手段29に出力される。音情報AINは音声入出力手段54に出力される。触覚情報D1は、画像音声触覚モードが選択された場合に備えて制御手段15にセットされる。
その後、ステップB33に移行して、先に設定された動作モードに基づいて制御を分岐する。画像音声触覚モードが設定された場合は、ステップB34及びB35に移行する。ステップB34では、先に受信した画像情報DIN+音情報AINに基づいて受信音を出力処理する。例えば、表示手段29では、放送局から送られてきた画像情報DINに基づく演出者の映像が表示される。音声入出力手段54では、放送局から送られてきた音情報AINに基づく話声が図示しないスピーカー等により放音される。
これに並行して、ステップB35で制御手段15は、表示手段29で映像表示される特定の映像場面や、音声入出力手段54で放音される出演者の台詞について、触覚提示タイミングを検出する。このとき、触覚機能付きの入力手段24は、操作者の指等の接触を検出して、表示手段29で映像表示される特定の映像場面に対応する触覚提示タイミングを検出するように操作される。また、スピーカー等から放音される出演者の台詞やバックグランドミュージック等に対応する触覚提示タイミングを検出するように操作される。
触覚機能付きの入力手段24によって操作者の指等の接触を検出した場合や、スピーカー等から放音される出演者の台詞やバックグランドミュージック等に対応する触覚提示タイミングを検出した場合は、ステップB36に移行する。ステップB36で制御手段15は、特定の映像場面に係る画像情報DINや、出演者の台詞、バックグランドミュージック等に係る音情報AINに各々の対応付けられた触覚情報D1に基づいて操作者の指や、操作者が着席する椅子等に触覚を提示するように触覚提示制御を実行する。
例えば、テレビジョン受信機の制御手段15では、図示しない放送局からアンテナを通じて受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御手段15は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。制御手段15は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号を作成する。
振動制御信号は、制御手段15から触覚発生手段40を構成する圧電素子に供給される。圧電素子は、入力手段24や、表示手段29、操作者が着席する椅子等に取り付けられる。圧電素子は、振動制御信号に基づいて入力手段24や、表示手段29、操作者が着席する椅子等を振動するようになされる。これにより、入力手段24や表示手段29に触れている操作者の指等に、また、操作者が着席する椅子等で、特定の映像場面に係る画像情報DINや、出演者の台詞、バックグランドミュージック等に係る音情報AINに対応した触覚を提示できるようになる。その後、ステップB38に移行する。
なお、ステップB33でノーマルモードが設定された場合は、ステップB37に移行して触覚提示処理を伴わない画像及び音情報AINの出力処理を実行する。その後、ステップB38に移行して制御手段15は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は画像音声触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップB33に戻って、上述した処理を繰り返すようになされる。
このように、第3の実施例に係る情報処理システムによれば、放送局の送信設備と、アンテナを通じて、画像音声触覚モード機能付きのテレビ受信機とが既存のデジタル地上波放送システム、衛星放送システム又はアナログ放送システム等を利用した通信手段300を通じて接続される。放送加入者のテレビ受信機では、放送局からアンテナを通じて触覚情報D1+画像情報DIN+音情報AINを受信し、特定の映像場面に係る画像や、スピーカー等から放音される出演者の台詞やバックグランドミュージック等に対応する触覚提示タイミングを検出する。テレビ受信機は、触覚提示タイミングを検出したとき、画像情報DIN+音情報AINに対応付けられた触覚情報D1に基づいて操作者の指や、操作者が着席する椅子等に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、受信側の操作者等に対して放送局から提供される画像を視るという視覚、出演者の台詞やバックグランドミュージックを聞くという聴覚に加えて、特定の映像場面に係る画像情報DINに対応付けられた触覚や、出演者の台詞やバックグランドミュージック等に係る音情報AINに対応付けられた触覚を再現性良く提示できるようになる。これにより、画像情報DIN+音情報AINに対応付けられた触覚情報D1に基づいて操作者の指や、操作者が着席する椅子等に触覚を提示(体験)できるような情報処理システムを構築することができる。このような情報処理システムは、既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した触覚テレビ放送システムに十分応用できる。
しかも、放送局からテレビ受信機へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを放送局からテレビ受信機へ直接送信する場合に比べて送信情報を少なくすることができる。
また、第3の実施例に係る画像音声触覚モード機能付きのテレビ受信機及びその情報処理方法によれば、放送局からアンテナを通じて触覚情報D1+画像情報DIN+音情報AINをテレビ受信機の受信チューナ装置を通じて受信し、その情報処理をする場合に、テレビ受信機の制御手段15は、触覚提示タイミングを検出したとき、当該画像情報DIN+音情報AINに対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、制御手段15の制御を受けて触覚を発生する。
従って、受信側の操作者等に対して放送局から提供される画像を視るという視覚、出演者の台詞やバックグランドミュージック等を聞くという聴覚に加えて、特定の映像場面に係る画像情報DINに対応付けられた触覚や、出演者の台詞やバックグランドミュージック等に係る音情報AINに対応付けられた触覚を再現性良く提示できるようになる。このような画像音声触覚モード機能付きのテレビ受信機は、既存のデジタル地上波放送システム、衛星放送システム又はアナログ放送システム等を利用した触覚テレビ放送システムに十分応用できる。
図5は、第4の実施例としての触覚テレビ電話システム4の構成例を示す概念図である。
図5に示す触覚テレビ電話システム4は情報処理システムの一例を構成し、触覚入力機能付きの携帯電話機に触覚テレビ電話モードを設定して通信処理をするシステムである。ここに触覚テレビ電話モードとは、発呼側(送信側)の携帯電話機400’から通話の相手方である着呼側(受信側)の携帯電話機400等に顔画像情報+触覚情報を送信し、着呼側の携帯電話機400では、表示画面の特定部位を接触したときに、その触覚情報に基づいて入力手段24又は表示手段29を振動し、その面に触れている操作者の指等に触覚を与える動作をいう。
触覚テレビ電話システム4では、情報処理装置#2jの一例となる触覚入力機能付きの携帯電話機400が少なくとも通話相手となる操作者に装備される。もちろん、触覚入力機能付きの携帯電話機400は、通話相手に限られることはなく、着呼側の操作者にも装備されていることが好ましい。情報処理装置#2jは、携帯電話機400に限られることはなく、触覚入力機能付きのノート型やデスクトップ型のパーソナルコンピュータといった、通信処理機能付きの情報処理装置であっても、また、家庭用の据置型で触覚入力機能付きの電話機303であってもよい。
この例では、無線基地局301や、通信事業者のアンテナ設備等の通信手段300を通じて通信処理可能な携帯電話機400を例に挙げて説明をする。通信手段300にはインターネット302や、一般の公衆電話回線等が含まれる。着呼側の携帯電話機400では、触覚テレビ電話モードを設定して触覚提示処理を実行する。
触覚提示処理とは、着呼側で相手方から送られてきた表示映像の特定部位を接触したときに、触覚情報D1に基づいて入力手段24又は表示手段29を振動し、その面に触れている操作者の指等に触覚を与える処理をいう。上述の触覚テレビ電話モードは、着呼側の携帯電話機400が設定中であることを発呼側の携帯電話機400’で認知できるようにしてもよい。例えば、着呼側の携帯電話機400が触覚テレビ電話モードを設定中であることは、発呼側の携帯電話機400’で、その発呼時に、着呼側からの識別信号の中に「モード設定中信号」等を含ませ、これを発呼側で受信し、この識別信号からモード設定中信号を解読することで認知できるようになる。
図6は、触覚入力機能付きの携帯電話機400の構成例を示す斜視図である。図6に示す携帯電話機400は、表示画面上の入力検出面を摺動接触操作される触覚機能付きの入力装置90を有している。携帯電話機400は下部筐体10及び上部筐体20を備え、これらの筐体10及び20間は、回転レンジ機構11によって可動自在に係合されている。この回転レンジ機構によれば、下部筐体10の操作面の一端に設けられた図示しない軸部と、下部筐体10の裏面の一端に設けられた図示しない軸受け部とが回転自在に係合され、上部筐体20は下部筐体10に対して角度±180°の回転自由度を有して面結合されている。
下部筐体10には、複数の押しボタンスイッチ12から成る操作パネル18が設けられる。押しボタンスイッチ12は、「0」〜「9」数字キー、「*」や「#」等の記号キー、「オン」や「オフ」等のフックボタン、メニューキー等から構成される。下部筐体10において、操作パネル面の下方には、通話用のマイクロフォン13が取り付けられ、送話器として機能するようになされる。
また、下部筐体10の下端部には、モジュール型のアンテナ16が取り付けられ、その上端内部側面には、大音響用のスピーカー36aが設けられ、着信メロディ等を放音するようになされる。下部筐体10には、バッテリー14や回路基板17等が設けられ、下部筐体10にはカメラ34が取り付けられている。
上述の下部筐体10に対して、回転レンジ機構11によって可動自在に係合された上部筐体20には、その表面の上方に通話用のスピーカー36bが取り付けられ、受話器として機能するようになされる。このスピーカー36aの右隣にはカメラ34が配設される。カメラ34は、操作者本人の顔画像を、モニタを見ながら撮影できることが好ましい。そこで、カメラ34は、下部筐体10の表面(入力検出手段側)に取り付けられる。もちろん、風景を撮影するためのカメラを下部筐体10の裏面に設けてもよく、また、1台のカメラ34を下部筐体10の表裏で使用可能な構造としてもよい。
上部筐体20のスピーカー取り付け面の下方には、触覚機能付き入力装置90が設けられる。入力装置90は、入力検出手段45及び表示手段29を有しており、表示画面上の入力検出面における操作体の押下操作に対して触覚を与えるものである。表示手段29には、画像情報DINに基づいて相手方の顔画像等が表示される。
図7は、触覚機能付きの入力装置90の構成例を示す斜視図である。図7に示す入力装置90は、長さがLcm程度で、幅がWcm程度の入力手段24と、この下方に、入力手段24よりも一回り小さな液晶表示ディスプレイから成る表示手段29とが積層され、更に、表示手段29の周囲には、例えば、4個の力検出手段55a〜55dが取り付けられて構成され、当該入力検出面における操作者の指(操作体)の押下位置の加圧力を検出すると共に、当該押下位置に表示された入力情報を入力する。
入力検出手段45は、触覚機能付きの入力手段24及び4個の力検出手段55a〜55dから構成される。この例では、入力検出手段45の入力検出面の一方をX方向とし、当該X方向と直交する他方をY方向とし、X及びY方向と直交する方向をZ方向とする。入力手段24は、表示手段29に表示された相手方の顔画像(受信画像)への接触位置を検出して、その表示手段29に表示された受信画像に対応する触覚の提示要求を受け付けるように操作される。
入力手段24には、タッチパネルやシートセンサ等が使用される。入力手段24には蓄積電極となる透明電極をマトリクス状に配置したタッチパネルが使用される。タッチパネルは、静電容量シートとしての静電容量方式の入力デバイスである。入力手段24から得られる入力情報には位置情報が含まれる。位置情報は相手方の顔画像押下時の位置検出信号S1により得られる。
力検出手段55a〜55dは、表示手段29の同一平面の四隅に設けられ、当該入力検出面における操作体の押下位置の加圧力Fを検出する。力検出手段55aは、右下隅の入力量(力)として、例えば、当該顔部位選択時の力検出信号Sfaを検出する。同様にして、力検出手段55bは、右上隅の入力量(力)として、当該相手方の顔画像押下時の力検出信号Sfbを検出し、力検出手段55cは、左上隅の入力量(力)として、当該顔部位選択時の力検出信号Sfcを検出し、力検出手段55dは、左下隅の入力量(力)として、当該顔部位選択時の力検出信号Sfdを各々検出する。これら4個の力検出手段55a〜55dは、並列に接続され、これら4つの力検出信号Sfa+Sfb+Sfc+Sfdを制御手段15に出力する。以下、この合算した信号を入力検出信号S2とする。
表示手段29の周囲には、力検出手段55a〜55dの他に触覚発生手段40を構成する4個の圧電アクチュエータ25a〜25dが取り付けられ、表示手段29に表示される相手方の顔画像の例えば、鼻、ほほ、後ろ髪姿等の選択操作に基づいて表示画面を振動するようになされる。振動は、相手方から指定された触覚情報D1に基づいて振動制御信号Sa〜Sd等が発生され、その振動制御信号Sa等に基づいて操作者の指等に触覚を提示するように使用される。
圧電アクチュエータ25a〜25dは、例えば、積層型の圧電素子から構成される。圧電アクチュエータ25aには制御手段15から振動制御信号Saが供給される。圧電アクチュエータ25bには同様にして振動制御信号Sbが供給され、圧電アクチュエータ25cには振動制御信号Scが供給され、圧電アクチュエータ25dには振動制御信号Sdが各々供給される。振動制御信号Sa〜Sdは、複数の振動パターンを発生するための信号である。
圧電アクチュエータ25a〜25dは、力検出手段55a〜55dによって検出された操作者の指等の加圧力Fに対応する振動波形パターンデータDcに基づいて入力検出面を振動する。この例で、圧電アクチュエータ25a〜25dは、予め準備された加圧力Fに対応する振動パターンにより異なった触覚を与えるようになされる。
上述の入力手段24、表示手段29、4個の圧電アクチュエータ25a〜25d及び力検出手段55a〜55dには制御手段15が接続される。制御手段15には記憶手段35が接続され、相手方から送られてきた顔画像情報D4や、触覚情報D1及び振動モードに関する波形パターンデータDP0が記憶される。
波形パターンデータDP0には、複数の異なった触覚を発生でき、その触覚を発生せしめる複数の具体的な振動波形、及び、アプリケーション毎の具体的な触覚発生モードを設定するアルゴリズムが含まれる。記憶手段35には、EEPROMや、ROM、RAM等が使用される。
この例で制御手段15は、入力手段24から出力される位置情報に基づいて表示手段29の表示制御及び圧電アクチュエータ25a〜25dの出力制御をする。例えば、制御手段15は、入力手段24から得られる位置検出信号S1及び力検出手段55a〜55dから得られる入力検出信号S2に基づいて記憶手段35から波形パターンデータDP0を読み出して合成処理をし、合成後の振動波形パターンデータDcに基づいて、圧電アクチュエータ25a〜25dに振動制御信号Sa〜Sdを供給する。
また、制御手段15は、相手方から送られてきた、例えば、3カットの顔画像を表示画面中に表示するように表示手段29を制御する。このように構成された入力装置90は、表示画面に表示された相手方の顔画像の、例えば、鼻、ほほ、後ろ髪姿の1つを押下(接触)して当該表示画面上で入力手段24をZ方向に押下すると触覚を伴って画面入力操作できようになる。
図8は、圧電アクチュエータ25a〜25d、力検出手段55a及び55b等の配置例を示す断面の構成図である。
図8に示す入力装置90は、図7に示したように上部筐体20において、入力手段24、表示手段29及び力検出手段55a、55b、バックライト49等から成る3層構造を有している。
最上層には、入力手段24が設けられ、相手方の顔画像等で接触位置を検出するようになされる。入力手段24の下層には、圧電アクチュエータ25a〜25d、力検出手段55a〜55d及び表示手段29が同一面上に設けられる。図8Aにおいては、4個の圧電アクチュエータ25a〜25dの内の圧電アクチュエータ25aと、4個の力検出手段55a〜55dのうちの力検出手段55a及び55bのみを示している。
力検出手段55a及び55b等は、表示手段29の保護枠となる図示しないシャーシの四隅に組み込まれ、入力手段24の入力検出面における操作体の押下位置の加圧力Fを検出するようになされる。圧電アクチュエータ25a等はそのシャーシに設けられた凹部に組み込まれ、表示手段29に表示される相手方の顔画像の接触位置検出操作に基づいて表示画面を振動するようになされる。なお、表示手段29の下層にはバックライト49が設けられる。このような入力装置90は、触覚入力機能付きの各種情報処理装置#2jに応用できるようになる。
図9(A)及び(B)は力検出手段55a等の内部構成例を示す図である。力検出手段55a等には、図9Aに示すホイトストーンブリッジ回路が応用される。この例では、入力装置90のZ方向の加圧力Fがホイトストーンブリッジ回路における抵抗値Rxの変化により得られるものとすると、抵抗値Rxは、R1・R3/R2により演算される。加圧力Fは抵抗値Rxを電気変換することで求められる。
また、力検出手段55a等にはフォースセンサが使用され、その検出原理は図5Bに示す拡散抵抗の変化から求められる。例えば、単結晶シリコン上にダイヤフラム(受圧部)を形成し、そのダイヤフラム上にゲージ抵抗となる拡散抵抗を配置する。ダイヤフラムが加圧されると、その加圧により受ける応力によって拡散抵抗が変化する。この抵抗変化を電気信号に変換することで加圧力Fが求められる。
次に、触覚入力機能付きの携帯電話機400の内部構成例及び触覚フィードバック入力方法について説明をする。図10は、触覚入力機能付きの携帯電話機400の内部構成例を示すブロック図である。
図10に示す携帯電話機400は、下部筐体10の回路基板17に各機能のブロックを実装して構成される。なお、図5〜図9に示した各部及び手段と対応する部分は、同一符号で示している。
携帯電話機400は、マイクロフォン13、制御手段15、アンテナ16、操作パネル18、受信部21、送信部22、アンテナ共用器23、圧電アクチュエータ25a〜25d、表示手段29、電源ユニット33、カメラ34、記憶手段35、スピーカー36a,36b、触覚提示手段40、映像&音声処理部44及び入力検出手段45を有している。この例で、アンテナ16、共用器23、受信部21及び送信部22は受信手段を構成し、相手方の携帯電話機400’から触覚情報D1+顔画像情報D4を受信して復号化処理する。
制御手段15は、A/Dドライバ31、CPU32、画像処理部26及びアクチュエータ駆動回路37を有している。
CPU32は、システムプログラムに基づいて当該電話機全体を制御するようになされる。CPU32には記憶手段35が接続される。記憶手段35には、図示しないROM、RAM、EEPROM及びハードディスク(HDD)等が使用される。ROMには当該電話器全体を制御するためのシステムプログラムデータが格納される。RAMはワークメモリとして使用される。CPU32は電源オンと共に、ROMからシステムプログラムデータを読み出してRAMに展開し、当該システムを立ち上げて携帯電話機全体を制御するようになされる。
例えば、CPU32は、A/Dドライバ31からの位置検出データD11〜D13を受けて所定の指令データDを電源ユニット33や、カメラ34、記憶手段35、アクチュエータ駆動部37、映像&音声処理部44等のデバイスに供給したり、受信部21からの触覚情報D1+顔画像情報D4を取り込んだり、送信部22へ送信データを転送するように制御する。
アンテナ16は、アンテナ共用器23に接続され、着呼時、相手方からの無線電波を基地局等から受信して復号化処理する。アンテナ共用器23には受信部21が接続され、アンテナ16から導かれる触覚情報D1+顔画像情報D4を受信して映像や音声等を復調処理し、復調後の映像及び音声データDinをCPU32等に出力するようになされる。
この例で受信部21等を通じて相手方の携帯電話機400から触覚情報D1+顔画像情報D4を受信して復号化処理する場合であって、CPU32は、相手方の携帯電話機400’から受信した触覚情報D1及び顔画像情報D4をデコード処理して振動作成指示データDPXを取得する。CPU32は、触覚情報D1からデコードした振動作成指示データDPXに基づいて記憶手段35から波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
CPU32には記憶手段35が接続され、振動作成指示データDPXをアドレスにして読み出し可能な複数種類の波形パターンデータDP0が格納される。この例では、振動波形パターンデータDcを構成する素材データとして、触覚提示用の複数種類の周波数fx及び振幅Axの波形パターンデータDP0が準備されている。これは、相手方の携帯電話機400’で要求する触覚情報D1に対応する振動波形パターンデータDcを着呼側の携帯電話機400で再現(構築)するためである。このように、発呼側から着呼側へ振動作成指示データDPXを符号化して送信することにより、振動波形パターンデータDcを発呼側から着呼側へ直接送信する場合に比べて送信情報を少なくすることができる。
CPU32は、振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出す。CPU32は、記憶手段35から読み出した複数種類の波形パターンデータDP0を合成し、合成後の振動波形パターンデータDcをアクチュエータ駆動回路37に出力する。
CPU32にはアクチュエータ駆動部37が接続され、CPU32からの振動波形パターンデータDcを入力し、これをアナログ・デジタル変換して振動制御信号Sa〜Sdを発生する。振動制御信号Sa〜Sdは、正弦波形からなる出力波形を有している。アクチュエータ駆動部37には触覚発生手段40を構成する複数の圧電アクチュエータ25a、25b、25c、25dが接続され、各々の振動制御信号Sa〜Sdに基づいて入力手段24又は表示手段29を振動するようになされる。これにより、入力手段24又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。
アクチュエータ駆動部37における出力タイミングは、入力検出手段45における接触位置及び力検出に基づいて実行される。入力検出手段45では、操作者30の指30aの接触位置及び押圧力を検出して、少なくとも、位置検出信号S1および入力量(押圧力;加圧力F)となる入力検出信号S2を発生するようになされる。
入力検出手段45には、A/Dドライバ31が接続され、入力検出手段45からの位置検出信号S1および入力検出信号S2が供給される。A/Dドライバ31ではカーソリング入力機能と接触位置検出機能とを区別するために位置検出信号S1および入力検出信号S2よりなるアナログ信号をデジタルデータに変換する。
この他にA/Dドライバ31は、このデジタルデータを演算処理して、カーソリング入力か、相手方から送られてきた映像の顔部位、例えば、鼻、ほほ、後ろ髪姿等の接触位置検出情報かを判別し、カーソリング入力か顔画像位置検出入力かを区別するフラグデータD31あるいは位置検出情報D11または入力検出情報D12をCPU32に供給するようになされる。これらの演算はCPU32内で実行してもよい。
この例で、CPU32は、入力手段24から触覚提示要求を入力し、当該顔画像情報D4に対応付けられた触覚情報D1に基づいて操作者の指(操作体)に触覚を提示するように触覚発生手段40を制御する。CPU32が触覚発生手段40を制御するのは、受信画像に対応する触覚の提示要求を受け付けたときである。例えば、入力検出手段45から得られる入力検出情報D12と予め設定された押下判定閾値Fthとを比較し、当該比較結果に基づいて圧電アクチュエータ25a〜25d等を振動制御するようにアクチュエータ駆動部37を制御する。
この例で、アクチュエータ駆動部37は、各アプリケーションに対応する押下判定閾値Fthを記憶する。例えば、押下判定閾値Fthはトリガーパラメータとしてアクチュエータ駆動回路37に設けられたROM等に予め格納される。アクチュエータ駆動回路37は、CPU32の制御を受けて、入力検出情報D12を入力し、予め設定された押下判定閾値Fthと、入力検出情報D12から得られる加圧力Fとを比較し、Fth>Fの判定処理や、Fth≦F等の判定処理を実行する。
CPU32では、入力検出手段45の押下位置における入力検出面から伝播される触覚をA及びBとすると、触覚Aは、その押下位置における操作者の指30aの加圧力Fに応じた入力検出面を低周波数かつ小振幅の振動パターンから、高周波数かつ大振幅の振動パターンに変化させることによって得られる。また、触覚Bは、その押下位置における操作者の指30aの加圧力Fに応じた入力検出面を高周波数かつ大振幅の振動パターンから、低周波数かつ小振幅の振動パターンに変化させることよって得られる。
CPU32は、入力検出手段45が押下判定閾値Fthを越える入力検出情報D12を検出したとき、触覚Aを起動し、その後、押下判定閾値Fthを下回る入力検出情報D12を検出したとき、触覚Bを起動するようにアクチュエータ駆動回路37を制御する。このようにすると、操作者の指30a等の”加圧力”に合わせた異なる振動パターンを発生させることができる。なお、入力検出手段45は、図7では静電容量方式の入力デバイスを説明したが、カーソリング入力と接触位置検出機能を区別できるものであれば何でも良く、例えば、抵抗膜方式、表面波弾性方式(SAW)、光方式、複数段方式タクトスイッチ等の入力デバイスであっても良く、好ましくは位置情報と力情報を制御手段15に与えられる構成の入力デバイスであれば良い。
CPU32にはアクチュエータ駆動部37の他に画像処理部26が接続され、アンテナ16、共用器23及び受信部21を通じて受信した顔画像情報D4に基づいて相手方の顔画像等を表示するための画像処理をするようになされる。画像処理部26には、CPU32を通じて音声入出力手段を構成する映像&音声処理部44が接続される。映像&音声処理部44では、デジタルの音声データをデジタル/アナログ変換してアナログの音声信号Soutを出力したり、デジタルの映像データをデジタル/アナログ変換してアナログの映像信号Svを出力するようになされる。
映像処理後の表示信号Svは表示手段29に供給される。表示手段29では、相手方の携帯電話機400から送られてきた相手方の顔画像、例えば、鼻、ほほ、後ろ髪姿の顔画像情報D4に基づく表示信号Svにより通信相手の3カットの画像等を表示するようになされる。この例では、操作者30が指30aで触れている表示画面で相手方の顔画像、例えば、鼻、ほほ、後ろ髪姿毎に振動を受けて触覚を得ることができる。
映像&音声処理部44には大音響用及び受話器を構成するスピーカー36a、36bが接続される。スピーカー36aは、着呼時、着信音や着信メロディ等を鳴動するようになされる。スピーカー36bは、音声信号Sinを入力して相手方の話声等を拡大するようになされる。このように、表示手段29の表示内容は操作者の目による視覚により、スピーカー36a、36b等からの放音は、操作者の耳による聴覚により各機能を判断するようになされる。
上述のCPU32には操作パネル18が接続され、例えば、発呼時、相手方の電話番号を手動入力する際に使用される。また、上述の記憶手段35には、複数種類の波形パターンデータDP0の他に、当該携帯電話機400が送信側となった場合に、カメラ34によって取得した被写体の画像情報DINや、相手方の携帯電話機400’等に送信するための触覚情報D1等が格納される。
CPU32には操作パネル18の他にカメラ34が接続され、自分の顔画像や、その他の被写体を撮影して、例えば、静止画や動画等の画像情報DINが取得される。画像情報DINは、触覚テレビ電話モード設定時、触覚情報D1と結合されて相手方に符号化して送信するようになされる。上述の映像&音声処理部44にはスピーカー36a、36bの他に、送話器を構成するマイクロフォン13が接続され、当該携帯電話機400が発呼側となるとき、操作者の声を集音して音声信号Soutを出力するようになされる。映像&音声処理部44は、発呼時、相手方へ送るためのアナログの音声信号Sinをアナログ/デジタル変換してデジタルの音声データを出力したり、アナログの映像信号Svをアナログ/デジタル変換してデジタルの映像データを出力するようになされる。
CPU32には上述した受信部21の他に、送信部22が接続され、相手方へ送るための映像及び音声データDout等を変調処理し、変調後の送信データをアンテナ共用器23を通じアンテナ16に供給するようになされる。アンテナ16は、アンテナ共用器23から供給される無線電波を基地局等に向けて輻射するようになされる。電源ユニット33は、バッテリー14を有しており、制御手段15、操作パネル18、受信部21、送信部22、圧電アクチュエータ25a〜25d、表示手段29、カメラ34、記憶手段35、触覚提示手段40及び入力検出手段45にDC電源を供給するようになされる。
このように携帯電話機400を構成すると、相手方の携帯電話機400’から作成指示された触覚提示用の振動波形パターンデータDcを当該携帯電話機400のCPU32で作成することができ、しかも、相手方の携帯電話機400’で触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcを含む触覚情報D1を当該携帯電話機400へ送信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
また、携帯電話機400のCPU32で複数種類の波形パターンデータDP0を組み合わせることによって多種多様の触覚を発生できるようになる。しかも、相手方の携帯電話機400’より送信される触覚情報D1の内容の差異によって着呼側の個々の携帯電話機400の触覚発生手段40により発生される触覚の種類を異ならせることができる。
図11(A)及び(B)は、触覚A及びBに係る振動パターン例を示す波形図である。図11A及びBにおいて、いずれも横軸は、時間tである。縦軸は振動制御信号Sa〜Sd等の電圧(振幅Ax)[V]である。この例では、相手方の顔画像の鼻を触った時は触覚Aを与え、そこから指を離す時は触覚Bを与える場合を例に挙げる。もちろん、触覚A+Bを連続して提示するようにしてもよい。
図11Aに示す第1の振動パターンPaは触覚Aを与える波形である。その触覚Aの駆動条件aは、相手方の顔画像の「鼻」等が触られたとき、押下判定閾値Fthと加圧力Fとの関係がFth<Fとなる場合であって、第1段階iで約0.1秒間、周波数fx=50Hz、振幅Ax=5μm、回数Nx=2回の振動パターンで振動する。以下[fx Ax Nx]=[50 5 2]と表記する。同様にして、第2段階iiでは、約0.1秒間、[fx Ax Nx]=[100 10 2]の振動パターンで振動するようになされる。
図11Bに示す第2の振動パターンPbは触覚Bを与える波形である。その触覚Bの駆動条件bは、相手方の顔画像の「鼻」等が触られた後に、その相手方の顔画像の「鼻」から指が放されたとき、押下判定閾値Fthと加圧力Fとの関係がFth>Fとなる場合であって、第1段階iで約0.1秒間、[fx Ax Nx]=[80 8 2]で振動し、同様にして、第2段階iiでは、約0.1秒間、[fx Ax Nx]=[40 8 2]の振動パターンで振動する。このような振動パターンに基づいて入力検出面を振動すると、凸部を有する鼻等の触覚を得ることができる。
図12(A)及び(B)は、触覚テレビ電話システム4における発呼側の顔画像の撮影例及びその表示例を示す図である。
この実施例では、送信側(発呼側;第1情報処理系I)の操作者である彼女30’が携帯電話機400’を使用して自分の顔画像を撮影し、その顔画像情報D4に触覚情報D1を付加して受信側の操作者である彼氏30の携帯電話機400に符号化して送信する場合を例に挙げる。
図12Aに示す撮影例によれば、自分の左手に持った携帯電話機400’のカラー用のカメラ34の前に彼女30’が対峙し、自分の顔画像を撮影するようになされる。カメラ34は、表示画面側に取り付けてあるので、その顔画像を鏡のように、図12Bに示す表示手段29’に表示するようになされる。撮影映像は静止画でも動画でもよい。
図13〜図15は、彼女30’の正面向き、横向き、斜め後ろ向き等の顔画像の表示例を示す図である。各々の図13〜図15において、(A)は、これらの顔画像表示例、(B)はその送信情報例を示している。
この実施例では、彼女が携帯電話機400’を使用して自分の顔画像の例えば、3カットについて、相手方にアッピールするために、正面向きの顔画像、横向きの顔画像、斜め後ろ向きの顔画像について触覚情報D1を付加する場合を例に挙げる。彼女30’は、携帯電話機400’で入力手段24’を使用して画像触覚モードを設定するように操作される。また、入力手段24’は、正面向き、横向き、斜め後ろ向きの各々の顔画像等の3カットについて、触覚提示位置を制御手段15’に指示するように操作される。
図13Aに示す顔画像は、彼女が正面を向いて撮した表示例である。この表示例では、彼女30’が自分の手に持った携帯電話機400’の表示手段29’に自分の顔画像表示している。彼女30’は、入力手段24’を使用して正面向き顔画像について、触覚提示位置を制御手段15’に指示するように操作される。触覚提示位置に関しては、例えば、「鼻」が指定される。制御手段15’は、顔画像情報D4と触覚情報D1とを対応付ける。対応付け処理は、例えば、触覚提示位置「鼻」が指定された正面向き顔画像について、振動作成指示データDPXが記述される。
図13Bに示す送信情報は、ヘッダ情報とデータから構成される。ヘッダ情報は、顔画像情報D4及び触覚情報D1から構成される。顔画像情報D4には、R(赤)、G(緑)、青(B)の色区分、コントラスト等の項目が記述される。触覚情報D1には、アプリケーション情報、触覚提示位置及び振動作成指示データDPXが記述される。この例でアプリケーション情報には、相手方の情報処理装置を区分するための「電話」が記述され、触覚提示位置には彼女30が指定した「鼻」が記述される。
R、G、Bの色区分には、「鼻」の色を示す肌色が記述される。コントラストは例えば「0」が記述される。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが記述される。これは、彼氏30の携帯電話機400で周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号Sa等を作成するためである。これにより、制御手段15’で、相手方の携帯電話機400に彼女の正面向き顔画像に係る触覚情報D1+顔画像情報D4の送信処理を実行できるようになる。
図14Aに示す顔画像は、彼女が横を向いて撮した表示例である。この表示例では、彼女30’が自分の手に持った携帯電話機400’の表示手段29’に自分の横向きの顔画像を表示している。彼女30’は、入力手段24’を使用して横向き顔画像について、触覚提示位置を制御手段15’に指示するように操作される。触覚提示位置に関しては、例えば、「ほほ」が指定される。制御手段15’は、顔画像情報D4と触覚情報D1とを対応付ける。対応付け処理は、例えば、触覚提示位置「ほほ」が指定された横向き顔画像について、振動作成指示データDPXが記述される。
図14Bに示す送信情報において、顔画像情報D4のRGB色区分には、「ほほ」の色を示す肌色が記述される。コントラストには「0」が記述される。触覚情報D1のアプリケーション情報には「電話」が記述される、触覚提示位置には彼女30が指定した「ほほ」が記述される。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx’、振幅Ax’及び振動回数Nx’が記述される。これは、彼氏30の携帯電話機400で周波数fx’、振幅Ax’及び振動回数Nx’に基づいて振動制御信号Sa等を作成するためである。これにより、制御手段15’で、相手方の携帯電話機400に彼女の横向き顔画像に係る触覚情報D1+顔画像情報D4の送信処理を実行できるようになる。
図15Aに示す顔画像は、彼女が斜め後ろを向いて撮した表示例である。この表示例では、彼女30’が自分の手に持った携帯電話機400’の表示手段29’に自分の斜め後ろ向きの顔画像を表示している。彼女30’は、入力手段24’を使用して斜め後ろ向き顔画像について、触覚提示位置を制御手段15’に指示するように操作される。触覚提示位置に関しては、例えば、「髪」が指定される。制御手段15’は、顔画像情報D4と触覚情報D1とを対応付ける。対応付け処理は、例えば、触覚提示位置「髪」が指定された斜め後ろ向き顔画像について、振動作成指示データDPXが記述される。
図15Bに示す送信情報において、画像情報DINのRGB色区分には、「髪」の色を示す黒色が記述される。コントラストには「0」が記述される。触覚情報D1のアプリケーション情報には「電話」が記述される、触覚提示位置には彼女30が指定した「髪」が記述される。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx”、振幅Ax”及び振動回数Nx”が記述される。これは、彼氏30の携帯電話機400で周波数fx”、振幅Ax”及び振動回数Nx”に基づいて振動制御信号Sa等を作成するためである。これにより、制御手段15’で、相手方の携帯電話機400に彼女30’の斜め後ろ向き顔画像に係る触覚情報D1+顔画像情報D4の送信処理を実行できるようになる。
図16(A)及び(B)は、触覚テレビ電話システム4における着呼側の顔画像の表示例及び触覚提示例を示す図である。
この実施例では、彼女30’の携帯電話機400’から通信手段300を介して、受信側(着呼側;第2の情報処理系II)の操作者である彼氏30が携帯電話機400を使用して顔画像に係る触覚情報D1+画像情報DINを受信して復号化処理する。携帯電話機400では、彼女30’の顔画像を表示手段29に表示し、その顔画像情報D4に付加された触覚情報D1に基づいて触覚提示処理をするような場合を例に挙げる。
図16Aに示す触覚提示例によれば、彼氏30が自分の左手に持った携帯電話機400を例えば、親指で表示画面上を接触又はスライドするように操作される。表示手段29には、例えば、図16Bに示すような彼女30’の正面向きの顔画像を表示するようになされる。表示映像は静止画でも動画でもよい。彼氏30の親指が触覚提示位置P0である「鼻」に触れたとき、当該携帯電話機400では表示画面を振動するような触覚フィードバック制御を実行する。
次に、第4の実施例に係る情報処理方法について説明する。図17(A)及び(B)は、第4の実施例としての情報処理例を示すフローチャートである。この例で図1に示した第1の情報処理系I(発呼側)には、携帯電話機400’が配置され、第2の情報処理系II(着呼側)には、携帯電話機400が配置される。彼女30’の携帯電話機400’と彼氏30の携帯電話機400とは通信手段300を通じて接続される。彼氏30の携帯電話機400では、予めノーマルモード又は触覚テレビ電話モード(画像触覚モード)のいずれかの動作モードの設定処理がなされる場合を前提とする。また、彼氏30の携帯電話機400で、受信画像の所定部位への接触を検出したとき、その顔画像情報D4に対応付けられた触覚情報D1に基づいて彼氏の親指等に触覚を提示する場合を例に挙げる。
これらを情報処理条件にして、図17Aに示す発呼側のフローチャートのステップC11で発呼側である携帯電話機400’を使用して彼女30’の顔を撮影処理する。例えば、彼女自身の顔部位を何カットか撮影してこれらの顔画像情報D4を取得し、彼氏30に送信しようとする場合を例に採る。このとき、彼女30’は、例えば、正面向き、横向き、斜め後ろ向き顔画像等の3カット(シーン)について、触覚提示位置を制御手段15’に指示するように入力手段24’が操作される。
携帯電話機400’では、入力手段24’を操作して、カメラ34’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいてカメラ34’を制御する。カメラ34’は、彼女自身(被写体)の顔画像に関して動画又は静止画を含む顔画像情報D4等を取得して制御手段15’や記憶手段35’等に出力する。このとき、表示手段29’には、カメラ34’によって取得された、彼女自身の正面向き、横向き、斜め後ろ向き顔画像の顔画像情報D4に基づく表示データD2により彼女30’の顔画像等の映像を表示するようになされる。
その後、ステップC12で彼女30’の携帯電話機400’では、動画又は静止画を含む顔画像情報D4と触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、彼女自身の正面向き、横向き及び斜め後ろ向き等の顔画像3カット(静止画で3枚の映像に相当)について、各々触覚が異なる振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1が彼女自身の動画又は静止画を含む顔画像情報D4等に付加される。
顔画像情報D4に付加される触覚情報D1には、振動作成指示データDPXの他に、携帯電話機400を区分するアプリケーション情報等が含まれる。これは、彼氏30の携帯電話機400に正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成するための図13〜図15に示したような周波数fx、fx’、fx”、振幅Ax、Ax’、Ax”及び振動回数Nx、Nx’、Nx”が含まれる。この振動作成指示データDPXは、入力手段24’を使用して任意に設定するようになされる。もちろん、これに限られることはなく、予め準備されたROMから、例えば、「鼻」に相当する周波数fx、振幅Ax、回数Nxを読み出して設定したり、「ほほ」に相当する周波数fx’、振幅Ax’、回数Nx’を読み出して設定したり、「髪」に相当する周波数fx”、振幅Ax”、回数Nx”を読み出して設定してもよい。
そして、ステップC13で彼女30’の携帯電話機400’は、先に対応付けられた触覚情報D1+顔画像情報D4を通信手段300を通じて、彼氏30の携帯電話機400に符号化して送信する。例えば、制御手段15’は、通信モデム19’を制御して彼氏30の携帯電話機400を呼出し通信回線を接続する。通信モデム19’は、有線通信手段又は無線通信手段等の通信回線を彼氏30の携帯電話機400に接続して彼氏30と通信処理を実行する。通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+顔画像情報D4を彼氏30の携帯電話機400に送信する。
また、彼氏30の携帯電話機400では、図17Bに示す着呼側のフローチャートのステップE11で、まず、ノーマルモード又は触覚テレビ電話モードのいずれかの動作モードが設定される。動作モードは、彼氏30が入力手段24を使用して操作され、いずれかの動作モードが制御手段15に設定される。
そして、ステップE12で通信モデム19は、制御手段15の制御を受けて、彼女30’の携帯電話機400’から触覚情報D1+顔画像情報D4を受信して復号化処理する。触覚情報D1+顔画像情報D4は制御手段15で分離され、顔画像情報D4は表示手段29を駆動する表示データD2に変換される。触覚情報D1は、触覚テレビ電話モードが選択された場合に備えて制御手段15にセットされる。
その後、ステップE13に移行して、先に設定された動作モードに基づいて制御を分岐する。触覚モードが設定された場合は、ステップE14及びE15に移行する。ステップE14では、先に受信した顔画像情報D4に基づいて顔画像の表示処理をする。例えば、表示手段29は、携帯電話機400’から送られてきた、正面向き、横向き及び斜め後ろ向き等の顔画像情報D4に基づく表示データD2により、通信相手である彼女30’の顔画像等を表示する。
これに並行して、ステップE15で制御手段15は、表示手段29に表示されている受信画像に対応する触覚の提示要求を受け付ける。このとき、触覚機能付きの入力手段24は、受信画像の所定部位への彼氏30の親指等の接触を検出して、表示手段29に表示された受信画像に対応する触覚の提示要求を受け付けるように操作される。
触覚機能付きの入力手段24によって受信画像に対応する触覚提示要求を受け付けた場合は、ステップE16に移行する。ステップE16で制御手段15は、その顔画像情報D4に対応付けられた触覚情報D1に基づいて彼氏30の親指等に触覚を提示するように触覚提示制御を実行する。例えば、制御手段15は、彼女30’の携帯電話機400’から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御手段15は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から、周波数fx、fx’、fx”、振幅Ax、Ax’、Ax”等の波形パターンデータDP0を読み出し、この波形パターンデータDP0を振動回数Nx、Nx’、Nx”に基づいて合成し、振動波形パターンデータDcを作成するような制御を実行する。制御手段15は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sdを作成する。
振動制御信号Sa〜Sdは、制御手段15から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sdに基づいて入力手段24又は表示手段29を振動するようになされる。これにより、入力手段24又は表示手段29に触れている彼氏30の親指等に触覚を提示できるようになる。その後、ステップE18に移行する。
なお、ステップE13でノーマルモードが設定された場合は、ステップE17に移行して触覚提示処理を伴わない顔画像の表示処理を実行する。その後、ステップE18に移行して制御手段15は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は画像触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップE13に戻って、上述した処理を繰り返すようになされる。
このように、第4の実施例に係る触覚テレビ電話システム4によれば、第1の情報処理システムが応用され、着呼側である彼氏30の携帯電話機400は、発呼側である彼女30’の携帯電話機400’から触覚情報D1+顔画像情報D4を受信し、当該顔画像情報D4に基づいて画像を表示すると共に、その画像に対応する触覚の提示要求を受け付ける。携帯電話機400は、触覚の提示要求を受け付けたとき、顔画像情報D4に対応付けられた触覚情報D1に基づいて彼氏30の親指等に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、着呼側の操作者(彼氏30)等に対して発呼側の操作者(彼女30’)の顔画像を視るという視覚に加えて、彼女30’の正面向き、横向き、斜め後ろ向きの顔画像等に対応付けられた触覚を再現性良く提示できるようになる。これにより、発呼側で正面向き、横向き、斜め後ろ向きの顔画像で「鼻」、「ほほ」、「髪」等に対応付けた触覚を彼氏30で体験できるような触覚テレビ電話システム4を構築することができる。このような触覚テレビ電話システム4は、既存の有線又は及び無線方式の公衆電話回線網等を利用して実現可能である。
しかも、発呼側の携帯電話機400’から着呼側の携帯電話機400へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを携帯電話機400’から携帯電話機400へ直接送信する場合に比べて送信情報を少なくすることができる。
また、第4の実施例に係る触覚入力機能付きの携帯電話機及び情報処理方法によれば、発呼側の携帯電話機400’から触覚情報D1+顔画像情報D4を通信手段300を通じて受信し、その情報処理する場合に、CPU32は、触覚機能付きの入力手段24によって触覚の提示要求が受け付けられたとき、当該顔画像情報D4に対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、CPU32の制御を受けて触覚を発生する。
従って、操作者に対して画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、発呼側で送信画像の所定部位に対応付けた触覚を当該着呼側の携帯電話機400で再現性良く提示できるようになる。着呼側の携帯電話機400は上述の触覚テレビ電話システムの他に、触覚ネットショッピングシステムや触覚ゲーム情報配信システム、触覚地図情報配信システム等に十分応用できる。
図18A〜Dは、第4の実施例に係る触覚情報D1の他の設定例を示す図である。
第4の実施例で、図17Bに示したステップC12では、「鼻」に相当する周波数fx、振幅Ax、回数Nxを記憶手段35’から読み出して設定したり、「ほほ」に相当する周波数fx’、振幅Ax’、回数Nx’を記憶手段35’から読み出して設定したり、「髪」に相当する周波数fx”、振幅Ax”、回数Nx”を記憶手段35’等から読み出して設定する場合について説明したが、この実施例では、「すりすりモード」が準備される。
ここに「すりすりモード」とは、触覚入力機能付きの携帯電話機400を操作者のほほ等に実際に擦ったときに得られる力検出波形に基づいて振動作成指示データDPXを作成し、この振動作成指示データDPXを含む触覚情報D1と画像情報DINとを結合して受信側の携帯電話機等に送信し、受信側で振動作成指示データDPXに基づいて触覚提示処理を実行する動作をいう。
「すりすりモード」では、図7に示したような力検出手段55a〜55dの力検出機能を利用して、操作者のほほ等に実際に擦ったときに得られる力検出波形が検出される。図18Aにおいて、A−1〜A−4は、彼女30’が手にする携帯電話機400’の操作例を示す図である。A−1は、携帯電話機400’が彼女30’の顔等から離れている状態である。A−2は、携帯電話機400’が彼女30’の顔部位、例えば、ほほの下方に接触されている状態である。A−3は、携帯電話機400’が彼女30’のほほの下方から上方にすり上げられた状態である。A−4は、携帯電話機400’が再び彼女30’の顔等から離された状態である。
図18Bは、力検出手段55a〜55dが検出する力検出波形例を示す概念図である。A−1の状態では、力検出波形は検出されない。A−2の状態では、携帯電話機400’が彼女30’のほほの下方に接触されることから、力検出手段55a〜55dは、押下力等を検出するようになる。このA−2状態からA−3状態に遷移する段階で図18Bに示すような力検出波形が得られる。力検出波形は、例えば、正弦波を有している。このまま圧電アクチュエータ等に力検出波形を入力すると、圧電素子を破壊するので、人間が感じ易い周波数200Hz程度の触覚波形パターンに変換される。
図18Cは、正弦波状の力検出波形を触覚提示用の振動波形パターンデータDc(触覚波形パターン)で示したものである。このような振動波形パターンデータDcをそのまま受信側の携帯電話機400等に送信すると、データ量が多くなるので、この触覚波形データが何種類かの波形パターン要素に分解される。この例では、3つの波形パターン要素に分解される。初段の正弦波形は、例えば、周波数fxが50Hzで、振幅Axが50μm、振動回数Nxが2回である。中段の正弦波形は、周波数fx’が100Hzで、振幅Ax’が100μm、振動回数Nx’が4回であり、図示しないが、後段の正弦波形は、周波数fx”が50Hzで、振幅Ax”が50μm、振動回数Nx”が2回である。
この例では、ほほ等に実際に擦ったときの振動波形パターンデータDcを作成する旨を指示するための振動作成指示データDPXを含む触覚情報D1が送信側(彼女30’)の携帯電話機400’から受信側(彼氏30)の携帯電話機400へ符号化して送信するようになされる。
この例の触覚情報D1としては、図18Dに示すように、周波数fxに関して「50」が記述され、振幅Axに関しては「50」が記述され、振動回数Nxに関しては「2」が記述される。同様にして、周波数fx’=「100」が記述され、振幅Ax’=「100」が記述され、振動回数Nx’=「4」が記述され、周波数fx”=「50」が記述され、振幅Ax”=「50」が記述され、振動回数Nx”=「2」が記述される。これらの周波数fx、fx’、fx”、振幅Ax、Ax’、Ax”及び振動回数Nx、Nx’、Nx”の記述内容が振動作成指示データDPXを構成するようになる。
このように、第4の実施例としての他の触覚テレビ電話システムによれば、波形分解(解析)処理により得られた周波数fx及び振幅Axの正弦波形や、周波数fx’及び振幅Ax’の正弦波形、周波数fx”及び振幅Ax”の正弦波形等から成る波形パターン例では、振動作成指示データDPXを含む触覚情報D1と、図14Aに示した彼女30’の「ほほ」の顔画像情報D4とを結合して受信側の携帯電話機等に符号化して送信するようになされる。これによっても、彼女30’の携帯電話機400’で触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcをそのまま彼氏30の携帯電話機400へ送信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
図19は、第5の実施例としての感動触覚付き電話システム5の構成例を示す概念図である。
この実施例では、音声触覚モード機能付きの携帯電話機500’、500が配置され、携帯電話機500’は、触覚情報D1の他に音情報AINを携帯電話機500に送信し、携帯電話機500では、携帯電話機500’から受信した触覚情報D1を復号化処理すると共に音情報AINを再生出力するようになされる。
図19に示す感動触覚付き電話システム5は、情報処理システムの一例であり、送信側から受信側に送信した、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に対応して、受信側でその感動言語を放音する際に、受信側操作者の耳や指等に触覚提示処理を実行するシステムである。この例で、第1の情報処理系Iには音声触覚モード機能付きの携帯電話機500’が配置され、第2の情報処理系IIには音声触覚モード機能付きの携帯電話機500が各々配置される。携帯電話機500’と携帯電話機500とは、通信手段300を介して接続される。
携帯電話機500’は、少なくとも、マイクロフォン13’、通信モデム19’、入力手段24’、CPU32’記憶手段35’及び映像&音声処理部44’を有している。CPU32’内には、触覚判定部38が設けられる。マイクロフォン13’は送話器を構成し、送信側操作者の話声30dを集音して音声信号Soutを出力する。マイクロフォン13’には、映像&音声処理部44’が接続され、マイクロフォン13からの音声信号Soutを入力して、この音声信号Soutをアナログ/デジタル変換してデジタルの音声情報AIN’を出力する。
映像&音声処理部44’には、CPU32’が接続され、このCPU32’には入力手段24’が接続される。入力手段24’は、音声触覚モードを設定したり、映像&音声処理部44’を操作したり、触覚判定部38を動作させるための操作データD3をCPU32’に出力する。CPU32’は、入力手段24’から得られる操作データD3に基づいて通信モデム19’や、触覚判定部38、映像&音声処理部44’等の入出力を制御する。この例で、入力手段24’は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に対応する振動作成指示データDPXをCPU32’に設定するように操作される。ここで設定された感動言語は、触覚情報D1と係合付けられて記憶手段35’に保存される。
触覚判別部38は音声認識機能を有しており、映像&音声処理部44’から音声情報AIN’を入力して、予め設定された感動言語と、実際に送信側操作者が話した通話言語とを比較し、触覚情報D1を付加すべき感動言語であるか否かを判別する。CPU32’は、触覚情報D1を付加すべき感動言語である旨を判別した場合は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に対応する触覚情報D1を当該音声情報AIN’に付加するようになされる。
例えば、CPU32’は、音声触覚モード設定時、送信側操作者の話声30dを含む音声情報AIN’と振動作成指示データDPXを含む触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、CPU32’が操作データD3に基づいて、操作者本人の音声の中の「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語について、各々触覚が異なる振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1が操作者本人の音声を含む音声情報AIN’等に付加される。
この音声情報AIN’に付加される触覚情報D1には、振動作成指示データDPXの他に、相手方の携帯電話機500を区分するアプリケーション情報等が含まれる。これは、相手方の携帯電話機500に正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。このような触覚情報D1を付加した音声情報AIN’は、通信モデム19’で符号化処理された後に、相手方の携帯電話機500に送信するようになされる。
一方、携帯電話機500は、少なくとも、通信モデム19、入力手段24、CPU32、記憶手段35、スピーカー36b、触覚発生手段40、映像&音声処理部44を有している。CPU32内には触覚解析部39が設けられる。
通信モデム19は、CPU32の制御を受けて、送信側の携帯電話機500’から送信されてきた触覚情報D1+音声情報AIN’を受信して復号化処理する。通信モデム19にはCPU32が接続される。CPU32には、入力手段24が接続され、予めノーマルモード又は音声触覚モードのいずれかの動作モードを設定するように操作される。復号化後の触覚情報D1+音声情報AIN’は、CPU32で分離され、音声情報AIN’は映像&音声処理部44に出力される。触覚情報D1は、音声触覚モードが選択された場合に備えてCPU32にセットされる。
CPU32は、音声触覚モードが設定された場合、復号化後の音声情報AIN’を映像&音声処理部44に出力する。映像&音声処理部44は、通信モデム19より受信した音声情報AIN’に基づいて話声等の音声を再生出力する。映像&音声処理部44には、受話器を構成するスピーカー36bが接続される。スピーカー36bは、上部筐体20に取り付けられる。スピーカー36bは、相手方から送られてきた音声情報AIN’に基づく音声信号Sinを入力して相手方の話声等を拡大するようになされる。受信側操作者は、上部筐体20を耳に当てがって通話をするように携帯電話機500が操作される。スピーカー36bからの放音は、操作者の耳による聴覚により各機能を判断するようになされる。
また、CPU32は、映像&音声処理部44で放音される、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語等の音声情報AIN’に対応する触覚提示タイミングを検出する。この例で、触覚機能付きの入力手段24は、操作者の耳等の接触を検出して、スピーカー36bから放音される感動言語に対応する触覚提示タイミングを検出するように操作される。触覚機能付きの入力手段24によって操作者の耳等の接触を検出した場合は、CPU32は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に係る音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚提示制御を実行する。
CPU32内の触覚解析部39は、復号化後の音声情報AIN’を入力し、特定の音声情報AIN’、この例では、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を解析し、この感動言語に対応した触覚提示処理を実行する。例えば、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語等の特定の放音出力を検出したとき、その音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚発生手段40を制御する。
例えば、CPU32は、相手方の携帯電話機500’から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。CPU32は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。CPU32は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sdを作成する。
振動制御信号Sa〜Sdは、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25dに供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sdに基づいて入力手段24や表示手段29等を振動するようになされる。これにより、上部筐体20に取り付けられた入力手段24や表示手段29等が、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等を放音する毎に振動し、上部筐体20のスピーカー36bを耳に当てている操作者の耳や指等にその都度、触覚を提示できるようになる。なお、情報処理装置#2jが家庭用の据置型の電話機303等である場合は、触覚発生手段40は、その受話器付近に取り付けられる。これは受信側操作者の耳もとで触覚を与えるためである。
次に、第5の実施例としての情報処理例について説明をする。この例では送信側と受信側の2つに情報処理例を分けて説明をする。
図20は、第5の実施例としての感動触覚電話システムにおける情報処理例(送信側)を示すフローチャートである。
この実施例では、送信側の音声触覚モード付きの携帯電話機500’と、受信側の音声触覚モード付きの携帯電話機500とが通信手段300を通じて接続される。送信側の携帯電話機500では、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語について、予め触覚提示タイミングをCPU32’に指示するように入力手段24’を操作して設定される。記憶手段35’には、これらの感動言語に対応付けられた触覚情報D1が予め格納されている場合を前提とする。
これらを情報処理条件にして、図20に示す送信側のフローチャートのステップF21で送信側の携帯電話機500’は、周知の技術を応用して受信側の携帯電話機500を発呼する。その後、ステップF22に移行して携帯電話機500’と携帯電話機500との間を既存の通信手段300を利用して接続する。その後、ステップF23に移行して、携帯電話機500’は、音声取得処理を実行する。このとき、送話器を構成するマイクロフォン13’は、送信側操作者の話声30dを集音して音声信号Soutを映像&音声処理部44’に出力する。映像&音声処理部44’は、マイクロフォン13からの音声信号Soutを入力して、この音声信号Soutをアナログ/デジタル変換してデジタルの音声情報AIN’を出力する。
また、音声認識機能を有する触覚判別部38では、映像&音声処理部44’から音声情報AIN’を入力して、予め設定された感動言語と、実際に送信側操作者が話した通話言語とを比較し、触覚情報D1を付加すべき感動言語であるか否かを判別する。
その後、ステップF24で携帯電話機500’は、上述の判別結果に基づいて話声30dを含む音声情報AIN’と触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、CPU32’は、触覚情報D1を付加すべき感動言語である旨を判別した場合、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に対応する触覚情報D1を記憶手段35’から読み出すようになされる。
CPU32’が「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語について、記憶手段35’から読み出した触覚情報D1は、操作者本人の音声を含む音声情報AIN’等に付加される。この音声情報AIN’に付加される触覚情報D1には、振動作成指示データDPXの他に、相手方の携帯電話機500を区分するアプリケーション情報等が含まれる。これは、相手方の携帯電話機500に正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。このような触覚情報D1を付加した音声情報AIN’は、通信モデム19’で符号化処理された後に、相手方の携帯電話機500に送信するようになされる。
そして、ステップF25で携帯電話機500’は、先に対応付けられた触覚情報D1+音声情報AIN’を通信手段300を通じて携帯電話機500に送信する。このとき、触覚情報D1+音声情報AIN’は、CPU32’又は通信モデム19’で符号化処理された後に、相手方の携帯電話機500に送信される。その後、ステップF26でCPU32’は通信処理終了を判断する。例えば、オンフック情報を検出した場合は、ステップF27に移行して通信回線を「断」して通信処理を終了する。オンフック情報が検出されず、オフフック情報が検出されている場合は、ステップF25に戻って上述した処理を継続する。
図21は、第5の実施例としての感動触覚電話システムにおける情報処理例(受信側)を示すフローチャートである。
この実施例で受信側の携帯電話機500において、予めノーマルモード又は音声触覚モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、携帯電話機500で、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の特定の放音出力を検出したとき、その音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示する場合を例に挙げる。受信側操作者は、上部筐体20を耳に当てがって通話をするように携帯電話機500が操作される。
これらを情報処理条件にして、携帯電話機500では、図21に示す受信側のフローチャートのステップG21で、まず、ノーマルモード又は音声触覚モードのいずれかの動作モードが設定される。動作モードは、受信側操作者により入力手段24が操作されてCPU32に設定される。このとき、受信側操作者はノーマルモード又は音声触覚モードのいずれかを設定する。
そして、ステップG22で携帯電話機500は、相手方の携帯電話機500’からの着呼を待機する。相手方の携帯電話機500’からの着呼を検出した場合は、ステップG23に移行して周知の技術に基づいて通信回線「接続」処理を実行する。その後、ステップG24で通信モデム19は、CPU32の制御を受けて、送信側の携帯電話機500’から送信されてきた触覚情報D1+音声情報AIN’を受信して復号化処理する。復号化後の触覚情報D1+音声情報AIN’は、CPU32で分離され、音声情報AIN’は映像&音声処理部44に出力される。触覚情報D1は、音声触覚モードが選択された場合に備えてCPU32にセットされる。
その後、ステップG25に移行して、先に設定された動作モードに基づいて制御を分岐する。音声触覚モードが設定された場合は、ステップG26及びG27に移行する。ステップG26で映像&音声処理部44は、相手方から送られてきた音声情報AIN’に基づく話声30dがスピーカー36bにより放音される。音声触覚モードを選択した場合には、音声情報AIN’に基づく話声30dに感動言語が含まれる。
CPU32は、音声触覚モードが設定された場合、復号化後の音声情報AIN’を映像&音声処理部44に出力する。映像&音声処理部44は、通信モデム19より受信した音声情報AIN’に基づいて話声等の音声を再生出力する。スピーカー36bは、音声情報AIN’に基づく音声信号Sinを入力して相手方の話声等を拡大するようになされる。スピーカー36bからの放音は、操作者の耳による聴覚により各機能を判断するようになされる。
これに並行して、ステップG27でCPU32内の触覚解析部39は、復号化後の音声情報AIN’を入力し、特定の音声情報AIN’、この例では、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を解析し、この感動言語に対応した触覚提示処理を実行する。例えば、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語等の特定の放音出力を検出する。このとき、触覚機能付きの入力手段24は、操作者の耳等の接触を検出して、スピーカー等から放音される感動言語に対応する触覚提示タイミングを検出するように操作される。
操作者の耳等の接触を検出した場合は、ステップG28に移行する。ステップG28でCPU32は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語に係る音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚発生手段40を制御する。
例えば、CPU32は、相手方の携帯電話機500’から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。CPU32は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。CPU32は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sdを作成する。
振動制御信号Sa〜Sdは、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25dに供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sdに基づいて入力手段24や表示手段29等を振動するようになされる。これにより、上部筐体20に取り付けられた入力手段24や表示手段29等が、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等を放音する毎に振動し、上部筐体20のスピーカー36bを耳に当てている操作者の耳や指等にその都度、触覚を提示できるようになる。その後、ステップG30に移行する。
なお、ステップG25でノーマルモードが設定された場合は、ステップG29に移行して触覚提示処理を伴わない音再生出力処理を実行する。その後、ステップG30に移行してCPU32は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は音声触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップG25に戻って、上述した処理を繰り返すようになされる。
このように、第5の実施例に係る感動触覚電話システム5によれば、送信側の音声触覚モード機能付きの携帯電話機500’と、受信側の音声触覚モード機能付きの携帯電話機500とが通信手段300を通じて接続される。携帯電話機500’は、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音声情報AIN’と触覚提示用の触覚情報D1とを対応付けて送信処理する。これを前提にして、携帯電話機500は、携帯電話機500’から触覚情報D1+音声情報AIN’を受信し、当該音声情報AIN’に基づいて放音すると共に、その感動言語に係る音声情報AIN’に対応する触覚提示タイミングを検出する。携帯電話機500は、触覚提示タイミングを検出したとき、音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、受信側の操作者等に対して相手方からの話声30dを聞くという聴覚に加えて、感動言語等の音声情報AIN’に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音声情報AIN’に対応付けた触覚を受信側で体験できるような感動触覚電話システム5を構築することができる。このような感動触覚電話システム5は、既存の有線又は及び無線方式の公衆電話回線網等を利用して十分実現が可能となる。
また、第5の実施例に係る音声触覚モード機能付きの携帯電話機及びその情報処理方法によれば、送信側の携帯電話機500’から触覚情報D1+音声情報AIN’を通信手段300を通じて受信し、その情報処理する場合に、CPU32は、触覚提示タイミングを検出したとき、当該音声情報AIN’に対応付けられた触覚情報D1に基づいて操作者の耳等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、CPU32の制御を受けて触覚を発生する。
従って、操作者に対して相手方からの話声30dを聞くという聴覚に加えて、感動言語等の音声情報AIN’に対応付けられた触覚を再現性良く提示できるようになる。これにより、送信側で、「愛しているよ」や、「君が好きだ」、「君を抱きしめたい」等の感動言語を含む音声情報AIN’に対応付けた触覚を受信側で体験できるような感動触覚電話システムに寄与することができる。
しかも、送信側の携帯電話機500’から送信側の携帯電話機500へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを携帯電話機500’から携帯電話機500へ直接送信する場合に比べて送信情報を少なくすることができる。
図22は、第6の実施例としての触覚インターネットショッピングシステム6の構成例を示す概念図である。図23は、触覚検出グローブ50を含むWWWサーバ601の構成例を示すブロック図、図24は、触覚検出グローブ50の構成例を各々示す断面図である。
この実施例では、触覚入力機能を有する情報配信側のネットショップ用ウエッブサーバ(以下でWWWサーバ601という)と、情報受信側の触覚入力機能付きのノートパソコン(以下でネット端末600という)とを通信手段300により接続し、ネットショップに係る商品等の画像情報(以下で商品画像情報D6という)に触覚情報D1を付加してネット端末600に送信し、その商品の肌触り感等をネット端末600のモニタ画面上等で体験できるようにしたものである。
図22に示す触覚ネットショッピングシステム6は情報処理システムの一例であり、動画又は及び静止画を含む商品画像情報D6に対応付けられた触覚提示用の触覚情報D1を処理するシステムである。商品画像情報D6には、一般家庭用のデジタルカメラや、業務用の放送局向けカメラ等で商品を映した商品画像や、パソコン等により作成したその商品に係るCADデータ等を含んでいる。
触覚ネットショッピングシステム6では、既存の通信手段(通信基盤)300が応用される。通信手段300には、有線通信手段及び無線通信手段が含まれる。通信手段300には、既存の有線及び無線方式の公衆電話回線網や、インターネット等が利用される。また、通信手段300は、WWWサーバ601−ネット端末600を電気的に接続できるものであれば、どんな通信方式であってもよい。
この触覚ネットショッピングシステム6でその情報配信側には、情報処理装置#1iの一例となるWWWサーバ601が通信モデム69’を通じて通信手段300に接続され、動画又は及び静止画を含む商品画像情報D6と触覚提示用の触覚情報D1とを対応付けてネット端末600へ配信処理するようになされる。ネット端末600は情報処理装置#2jの一例である。もちろん、これに限られることはなく、情報処理装置#2jには触覚入力機能付きの携帯電話機400,500が使用できる。
WWWサーバ601は、例えば、デジタルカメラ63’、入力ツール64’、制御ユニット65’、モニタ66’、記憶装置67’、音声入出力装置68’及び通信モデム69’を備えて構成される。入力ツール64’は、デジタルカメラ63’を操作するための操作データD3を入力したり、モード設定時、商品画像触覚モードを設定するように操作される。例えば、洋服や家具、家電製品等の商品の撮影して商品画像を取得し、その商品画像情報D6をネット利用者に配信しようとする場合に、その正面、側面及び背面等の3カットについて、触覚提示位置を制御ユニット65’に指示するように操作される。入力ツール64’には、マウス64a’、キーボード64b’及び触覚検出グローブ64c等が使用される。
デジタルカメラ63’は、洋服や家具、家電製品等の商品を撮影して商品画像を取得し、商品画像情報D6を出力するようになされる。例えば、デジタルカメラ63’は、男性用の洋服等の商品の正面、側面及び背面等の3カットについて、動画又は静止画に係る商品画像情報D6を取得する。音声入出力装置68’は、商品販売者の音声を入力したり、ネット利用者からの音声を出力する。音声入出力装置68’は音声入出力手段(図示せず)や、スピーカー68a’や、マイクロフォン68b’等から構成される。
記憶装置67’には、ネット利用者へのネット端末600に指示(配信)するための触覚情報D1が格納される。触覚情報D1には、ネット端末600で振動波形パターンデータDcの素材データとなる波形パターンデータDP0を記憶手段67から読み出して振動制御信号Sa等を作成する旨を指示するための振動作成指示データDPXが含まれている。触覚情報D1には、振動作成指示データDPXの他に、ネット利用者のネット端末600を区分するアプリケーション情報等が含まれている。
振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。これは、ネット端末600で周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号Sa等を作成するためである。記憶装置67’には、触覚情報D1の他にデジタルカメラ63’によって取得された商品画像情報D6が格納される。記憶装置67’には、ハードディスク(HDD)が使用される。
モニタ66’は、デジタルカメラ63’によって取得された、例えば、商品画像情報D6に基づく表示データD2により商品の映像を表示したり、ネット利用者のネット端末600から送られてきたネット利用者の個人情報等を表示するようになされる。
制御ユニット65’は、デジタルカメラ63’、入力ツール64’、モニタ66’、記憶装置67’、音声入出力装置68’及び通信モデム69’の入出力を制御する。例えば、制御ユニット65’は、デジタルカメラ63’を制御して商品の動画又は及び静止画を含む商品画像情報D6等の画像取得処理を実行し、その後、商品画像情報D6と触覚情報D1とを対応付ける。
この際の対応付け処理では、例えば、商品画像の正面、側面及び背面等の3カット(静止画で3枚の映像に相当)について、各々触覚が異なる振動作成指示データDPXが得られるような触覚情報D1が商品の動画又は及び静止画を含む商品画像情報D6等に付加される。この付加後の情報を「触覚情報D1+音声情報AIN’+商品画像情報D6」と記述する。そして、制御ユニット65’は、ネット利用者のネット端末600に触覚情報D1+音声情報AIN’+商品画像情報D6を符号化して配信する処理を実行する。
通信モデム69’は、有線通信手段又は無線通信手段等の通信回線によりWWWサーバ601とネット端末600とを接続して、商品販売者とネット利用者との間で通信処理をできるようになされる。例えば、通信モデム69’は、制御ユニット65’によって符号化処理された触覚情報D1+音声情報AIN’+商品画像情報D6をネット利用者のネット端末600に配信する。
この例で、制御ユニット65’には触覚検出グローブ64cが接続され、例えば、男性用の洋服等の商品の肌触りを検出して触覚情報D1を作成し、リアルタイムにネット端末600に触覚情報D1+音声情報AIN’+商品画像情報D6を配信するようになされる。触覚検出グローブ64cは、商品販売者の例えば、右手に装着される。触覚情報D1は、制御ユニット65’内で加工される(図23参照)。
図23に示すWWWサーバ601の内部構成例において、制御ユニット65は、CPU32’、I/Oポート51、システムバス52、音声入出力種54’、A/D変換部56、ROM57、RAM58、波形パターン格納部59及びデータ加工部60を有している。
図23に示すWWWサーバ601は、商品販売者が容易に装着可能な手袋状の入力装置を備え、商品販売者が通常操作のために商品に触れる指先部に、商品との接触の際に生じる力や加速度等を測定できるセンサが設けられ、このセンサにより商品販売者が受ける商品の肌触り等の触感を電気信号に変換し、その後、その電気信号に所定の加工を施して触覚情報D1を得るようになされる。
WWWサーバ601は、右手用の触覚検出グローブ50、制御ユニット65’及び記憶装置(HDD)67’を有して構成される。触覚検出グローブ50は、実際の商品、例えば、洋服を触れた際の肌触り感覚や、一眼レフカメラ等を操作した際に得られるシャッター押下触覚を検出して触覚検出信号を出力する。この例で触覚検出グローブ50には、商品販売者の手に装着可能な手袋状入力装置が使用される。
触覚検出グローブ50には制御ユニット65’が接続され、触覚検出グローブ50から出力される触覚検出信号SRを信号処理して触覚入力機能付きのネット端末600を制御するための触覚情報D1を作成する。制御ユニット65’はシステムバス52を有している。
システムバス52は例えば、データバス及び制御用の信号バスから構成される。このシステムバス52には、例えば、中央処理ユニット(以下CPU32’という)、音声入出力手段54’、A/D変換部56、ROM(Read Only Memory)57、RAM(Random Access Memory)58、波形パターン格納部59及びデータ加工部60が接続される。CPU32’には入出力ポート(以下I/Oポート51という)が接続される。
ROM57には、当該装置全体を制御するためのシステムプログラムデータDPや、触覚検出データを加工する所定のアルゴリズムが格納される。RAM58は、ワークメモリとして使用される。RAM58は、例えば、操作データD3や制御コマンド等を一時記憶するようになされる。この例でCPU32’は電源がオンされると、ROM57からシステムプログラムデータDPをRAM58に読み出してシステムを起動し、入力ツール64’からの操作データD3に基づいて当該装置全体を制御するようになされる。
CPU32’は、I/Oポート51、音声入出力手段54’、A/D変換部56、ROM57、波形パターン格納部59、データ加工部60、入力ツール64’及びモニタ66’の入出力を制御する。CPU32’では、ROM57から読み出された所定のアルゴリズムに基づいて触覚検出データを加工するので、商品販売者の主観(感覚)によることなく、一定の水準の波形加工を効率良く実行することができる。
I/Oポート51には入力ツール64’及びモニタ66’が接続される。入力ツール64’は触覚検出信号SRの取り込み指示や、波形加工の開始指示等を入力するように操作される。入力ツール64’にはキーボード等が使用される。入力ツール64’で指定された情報は操作データD3となってCPU32’に出力される。モニタ66’は触覚検出データDRに基づく表示データD2により触覚測定時のアナログの触覚検出信号SRを表示したり、波形パターンデータDP0に基づいて触覚付与時の触覚提示信号を表示するようになされる。モニタ66’には液晶表示ディスプレイや、CRT等が使用される。
上述のシステムバス52には、音声入出力手段54’が接続される。音声入出力手段54’にはスピーカー68aやマイクロフォン68b等が接続され、商品販売者のセールストーク等を集音したり、その音声をモニタする際に使用される。音声入出力手段54’は、集音したアナログのセールストーク等の音声信号をデジタルの音情報AINに変換してCPU32’に出力する。
また、CPU32’は、触覚検出グローブ50等から出力される接触力や加速度等の触覚検出信号に基づいて、人間が感知するのに適した周波数50Hz以上500Hz以下の波形パターンデータDP0を作成する。CPU32’は、加速度に係る触覚検出信号(加速度検出信号)に含まれる時間軸で変化する振動数の変化率の特徴を保ちながら波形パターンデータDP0を作成するようにデータ加工部60を制御する。これに限られることはなく、CPU32’は、加速度検出信号の振幅の時間的変化率の特徴を保ちながら波形パターンデータDP0を作成するようにデータ加工部60を制御する。これは、商品販売者等の加工作業を行う主観(感覚)に依存することなく、一定の水準のデータ加工を効率良く実行するためである。商品販売者は、販売対象商品毎に入力ツール64’からCPU32’に入力を指示する。
また、触覚検出グローブ50にはA/D変換部56が接続され、変換制御信号S12に基づいて接触力や加速度等の触覚検出信号SRをアナログ・デジタル変換してデジタルの触覚検出データDRを出力するように動作する。触覚検出データDRは一旦、記憶装置67’に格納するようにしてもよい。A/D変換制御信号S12はCPU32’からA/D変換部56に出力される。
A/D変換部56にはデータ加工部60が接続され、A/D変換後の触覚検出データDRを波形分析処理する。データ加工部60は、分離部61、抽出部62、変換部73及び合成部74を有して構成される。これらはRAM上に構築され、CPU32’の制御によってデータ加工機能を実現するようになされる。
分離部61はA/D変換部56から直接、又は、記憶装置67’から触覚検出データDRを入力し、分離制御信号S13に基づいて繰り返し現れる波形を検出し、この繰り返し波形を基準にして一塊りずつの合成波形を分離(分解)する。例えば、合成波形は、振幅の大きな波形と波形との間に測定された振動回数Nxの異なる波形の集合であり、複数の測定期間に区分される。分離制御信号S13はCPU32’から分離部61に出力される。
分離部61には抽出部62が接続され、複数の測定期間に区分され分離された当該測定期間の合成波形から抽出制御信号S14に基づいて周波数fx、振幅Ax及び振動回数Nx等の波形要素を抽出する。この抽出処理では、同じ振幅Ax及び振動回数Nxの波形が個々に分けられる。抽出制御信号S14はCPU32’から抽出部62に出力される。
この例では、分離部61で抽出された周波数fx、振幅Ax及び振動回数Nx等の波形要素を振動作成指示データDPXとする触覚情報D1を商品画像情報D6+音声情報AIN’に付加して情報受信側のネット端末600にダウンロードするようになされる。この振動作成指示データDPXを含む触覚情報D1は、情報受信側のネット端末600に触覚処理を指示するために記憶装置67’に格納される。これは、ネット端末600で振動波形パターンデータDcの素材データとなる波形パターンデータDP0を記憶手段から読み出して振動制御信号Sa等を作成する旨を指示するためである。触覚情報D1には、振動作成指示データDPXの他に、情報受信側のネット端末600を区分するアプリケーション情報等が含まれる。記憶装置67’には、触覚情報D1の他にデジタルカメラ63’によって取得された、商品の画像情報が格納される。
なお、触覚情報D1を波形パターンデータDP0の形態で配信することもできる。この場合は、抽出部62には変換部73が接続され、個々に分けられた同じ振幅Ax及び周波数fxの波形要素を要素変換制御信号S15に基づいて、人間が感知するのに適した周波数f=50Hz以上500Hz以下の波形パターンに置き換えるようになされる。波形パターンは周波数fxの他に、振幅Ax及び振動回数Nxによって定義される。
複数の波形パターンを組み合わせると、当該触覚提示期間の波形パターンを構成するようになる。このような例では、触覚提示期間と測定期間とを対応させている。要素変換制御信号S15はCPU32’から変換部73に出力される。変換部73には合成部74が接続され、合成制御信号S16に基づいて変換後の波形パターンと他の波形パターンとを合成して複数の触覚提示期間における波形パターンデータDP0を構築する。合成制御信号S16はCPU32’から合成部74に出力される。構築された触覚を与える波形パターンデータDP0は、販売対象商品と対応付けて記憶装置67’に格納(保存)される。記憶装置67’は、システムバス52に接続される。記憶装置67’にはハードディスクが使用されるが、上述の制御ユニット65’及び記憶装置67’にはパーソナルコンピュータを使用することができる。
システムバス52に波形パターン格納部59を接続して、触覚提示用の複数の波形パターンデータDP0を格納してもよい。波形パターンは、人間が感知するのに適した周波数50Hz以上500Hz以下の波形である。波形パターン格納部59にはROMやEEPROMが使用される。
このように作成された波形パターンデータDP0をWWWサーバ601で合成して触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcを含む触覚情報D1を当該ネット端末600へ送信するようにしてもよい。しかし、情報配信側で触覚提示用の振動波形パターンデータDcを作成してしまって送信する場合に比べて、振動波形パターンデータDcを作成指示する触覚情報D1を送信する場合の方がデータ量を軽減することができる。
図24(A)及び(B)は、触覚検出グローブ50等の指先部分の構成例及びその拡大例を各々示す断面図である。
図24Aにおいて、触覚検出グローブ50は、商品販売者が洋服や一眼レフカメラ等の商品を販売する際に、もっとも一般的に使う指先部分のそれぞれに力検出センサ41及び加速度センサ42が具備されている。力検出センサ41は、物体操作時の商品販売者の手(指)30aの接触に係る接触力を検出して触覚検出信号(接触力)SRを出力する。加速度センサ42は、当該商品販売者の手の動きに係る加速度を検出して触覚検出信号(加速度)SRを出力する。
図24Bの波線円内図には、触覚検出グローブ50等の指先部分の断面の構成例を示している。図24Bに示す手袋部位43は、柔らかい素材から構成される。手袋素材には、木綿、ビニール、ゴム、なめし皮等が使用される。この手袋部位43において、商品販売者の各指先の腹に当たる部分には、力検出センサ41が設けられ、その甲に当たる部分には加速度センサ42が各々設けられている。
力検出及び加速度の各々のセンサ41,42には、シート状センサが使用される。シート状センサは、柔軟性のあるシートに感圧インクをプリントしたものが使用される。感圧インクは、加えられた力に応じて電気抵抗値が変化する特性を有している。力検出センサ41の内側の手袋素材には、バックアップ部材46が設けられ、力検出センサ41が受ける力をバックアップするようになされる。バックアップ部材46には、硬質樹脂部材等が使用される。硬質樹脂部材は、力検出センサ41の柔軟性を損なわないようにするため、いくつかに分割され、小片状にして使用される。
力検出センサ41の外側には、シリコンシート47が設けられ、力検出センサ41を保護するようになされる。シリコンシート47は、人間の指先の皮膚に近い柔らかさを有している。力検出センサ41は、人間の触覚受容器が位置する深度に近いところに配置される。このため、シリコンシート47の厚さは0.3mm乃至0.5mm程度のものが使用される。
図25は、ネット端末600の構成例を示すブロック図である。図25に示すネット端末600は、図22に示した触覚ネットショッピングシステム6において、情報受信者側に配置される。
ネット端末600は、WWWサーバ601に対して通信手段300を通じて接続可能な装置である。WWWサーバ601が動画又は及び静止画を含む商品画像情報D6と触覚提示用の触覚情報D1とを対応付けて配信処理するのに対して、ネット端末600には、触覚入力機能付きのパソコン、携帯電話機、カーナビゲーションシステム、情報携帯端末装置等が使用される。これらは通信手段300に接続され、触覚情報D1+音声情報AIN’+商品画像情報D6を受信し、当該商品画像情報D6に基づいて商品画像を表示すると共に、当該商品画像に対応する触覚提示要求を受け付け、その提示要求に基づいて触覚を提示するようになされる。
ネット端末600は、例えば、触覚発生手段40、デジタルカメラ63、触覚機能付きの入力ツール64、制御ユニット65、モニタ66、記憶装置67、音声入出力装置68及び通信モデム69を備えて構成される。この例で、通信モデム69は受信手段を構成し、WWWサーバ601から触覚情報D1+音声情報AIN’+商品画像情報D6を受信して復号化処理する。触覚情報D1+音声情報AIN’+商品画像情報D6の復号化処理は、制御ユニット65で実行してもよい。入力ツール64を補助する入力手段としてマウス64a及びキーボード64bを有している。
モニタ66には、通信モデム69より受信した商品画像情報D6に基づいて商品画像を表示するようになされる。例えば、商品販売者のWWWサーバ601から送られてきた商品画像情報D6に基づく表示データD2により何種類かの商品画像等を表示するようになされる。
触覚機能付きの入力ツール64はモニタ66と組み合わされ、商品画像の所定部位への接触を検出して、モニタ66に表示された商品画像に対応する触覚の提示要求を受け付けるように操作される。入力ツール64には、タッチパネルやシートセンサ、力検出センサ55a〜55d、圧電アクチュエータ25a〜25d等が使用される。タッチパネルやシートセンサ等は、ネット利用者の指の接触位置を検出するように使用される。力検出センサ55a〜55dは、例えば,モニタ66の周り縁部位に取り付けられ、ネット利用者の指の押下力を検出するように使用される。圧電アクチュエータ25a〜25dは触覚発生手段40を構成し、触覚情報D1に基づいて発生された振動制御信号Sa〜Sdにより振動を発生し、ネット利用者の指等に触覚を提示するように使用される。
このネット端末600では、商品画像に対応する触覚の提示要求を受け付けたとき、触覚発生手段40を制御するようになされる。例えば、制御ユニット65は、入力ツール64から触覚提示要求を入力し、当該商品画像情報D6に対応付けられた触覚情報D1に基づいてネット利用者の指(操作体)に触覚を提示するように触覚発生手段40を制御する。
記憶装置67には、振動作成指示データDPXをアドレスにして読み出し可能な複数種類の波形パターンデータDP0が格納される。この例では、振動波形パターンデータDcを構成する素材データとして、触覚提示用の複数種類の周波数fx及び振幅Axの波形パターンデータDP0が準備されている。これは、商品販売者のWWWサーバ601で要求する触覚情報D1に対応する振動波形パターンデータDcをネット端末600で再現(構築)するためである。この振動作成指示データDPXは、WWWサーバ601からネット端末600へ符号化されて配信される。これにより、振動波形パターンデータDcをWWWサーバ601からネット端末600へ直接配信する場合に比べて配信情報量を少なくすることができる。
なお、記憶装置67には、複数種類の波形パターンデータDP0の他に、当該ネット端末600が情報送信側となった場合に、マウス64aや、キーボード64b等の入力手段を使用して入力される個人情報等が格納され、WWWサーバ601に送信される。もちろん、WWWサーバ601に送信するための触覚情報D1等を格納してもよい。
この例で通信モデム69がWWWサーバ601から触覚情報D1を受信して復号化処理する場合であって、制御ユニット65は、通信モデム69によって受信された触覚情報D1に基づいて記憶装置67から波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
例えば、制御ユニット65は、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御ユニット65は、更に、振動作成指示データDPXに基づいて記憶装置67から1又は複数種類の波形パターンデータDP0を読み出す。制御ユニット65は、記憶装置67から読み出した複数種類の波形パターンデータDP0を合成し、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、制御ユニット65から触覚発生手段40を構成する圧電アクチュエータ25a〜25dへ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて触覚機能付きの入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指等に触覚を提示できるようになる。
このようにネット端末600を構成すると、WWWサーバ601から作成指示された触覚提示用の振動波形パターンデータDcを当該ネット端末600の制御ユニット65で作成することができ、しかも、WWWサーバ601で触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcをそのまま当該ネット端末600へ配信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
また、ネット端末600で複数種類の波形パターンデータDP0を組み合わせることによって多種多様の触覚を発生できるようになる。しかも、WWWサーバ601より配信される触覚情報D1の内容の差異によって個々のネット端末600の触覚発生手段40により発生される触覚の種類を異ならせることができる。
図26は、モニタ66における商品画像の表示例を示す概念図である。図26に示すモニタ66には、図示しないタッチパネル等の入力手段24を透して商品画像が表示される。この例で表示画面が商品表示領域(1)及び操作ボタン領域(2)に分割されて使用される。商品表示領域(1)には、商品の男性用の洋服上部(ジャケット)の画像が表示される。操作ボタン領域(2)には、ジャケット「¥49,000円」が表示される。
操作ボタン領域(2)には、タッチパネル等の入力手段24によって構成されたアイコン領域AK1〜AK7が配置される。アイコン領域AK1には、「メンズ」、「レディス」・・・等のメッセージが表示される。アイコン領域AK2には、カラー選択用のアイコンが表示され、商品の色、この例では、ジャケットの色を選択できるようになされる。アイコン領域AK3には、サイズ選択用のアイコンが表示され、ジャケット等の商品のサイズを選択できるようになされる。アイコン領域AK4には、数量指定用のアイコンが表示され、商品の購入数を設定できるようになされる。
アイコン領域AK5には、「カートに入れる」のアイコンが表示され、ジャケット等の商品購入を決定できるようになされる。アイコン領域AK6には、ズーム設定用のアイコンが表示され、商品画像の拡大縮小を調整できるようになされる。この例では、□+印のアイコンで商品画像を拡大でき、□−印のアイコンで商品画像を縮小できるようになされる。アイコン領域AK7には、商品の配置設定用のアイコンが表示され、商品の部分画像を表示画面内に配置できるようになされる。この例では、十字キーアイコンが設けられ、商品画像を上下、左右に移動できるようになされる。これらの商品画像は、WWWサーバ601からダウンロードされる。
この例では、図中の波線に示すように、ネット利用者の指30aを表示画面上に接触すると、その商品の肌触りを触感を以て体験できるようになされる。この例では、表示画面内のジャケットに関してその背景、服自体及びボタンについて触覚が異なるように提示される。
図27(A)〜(D)は、記憶装置67’、67及び制御ユニット65’、65における情報処理例を示す図である。
図27Aに示すWWWサーバ601(配信側)の記憶装置67’には、例えば、「触覚適用部位」、「指の位置」及び「波形パターンデータ読出用のアドレス」が登録される。触覚適用部位には、例えば、「背景」、「服」及び「ボタン」が設定される。触覚適用部位は、「背景」、「服」及び「ボタン」に対応してネット利用者がその商品に触れるであろうと予測される領域I、II、IIIであって、ネット利用者が指30aで触れる位置である。
波形パターンデータ読出用のアドレスには、例えば、X,Y,Zが設定される。アドレスXは、周波数fx、振幅Ax、振動回数Nxの波形パターンデータDP0を読み出すデータであり、アドレスYは、周波数fx’、振幅Ax’、振動回数Nx’の波形パターンデータDP0を読み出すデータであり、アドレスZは、周波数fx”、振幅Ax”、振動回数Nx”の波形パターンデータDP0を読み出すデータである。アドレスX,Y,Z・・・は、振動作成指示データDPXを構成する。
図27Bに示すネット端末600(受信側)の記憶装置67には、アドレスX,Y,Z・・・によって読み出し可能な、例えば、周波数fx、振幅Axの波形パターンデータDP0、周波数fx’、振幅Ax’の波形パターンデータDP0、周波数fx”、振幅Ax”の波形パターンデータDP0・・・が格納されている。
図27Cに示すネット端末600の制御ユニット65では、モニタ66を押下するネット利用者の押圧力Fが検出される。押圧力Fは、力検出手段55a〜55dによって検出される。制御ユニット65は、例えば、押圧力Fの範囲を4段階に分割した触覚提示処理を実行する。第1段階は、F<30gであり、力検出手段55a〜55dが30g未満の押下力Fを検出した場合である。第2段階は、30g≦F<70gであり、第3段階は、70g≦F<200gであり、第4段階は、F≧200gである。この例では、説明を簡略化するために、これら4段階の押圧力Fとして、記号a,b,c,dを設定する。これら4段階の押圧力Fは、触覚ネットショップモード実行時に、ネット端末600からWWWサーバ601に送信される。
図27Dに示すWWWサーバ601の制御ユニット65’は、ネット端末600から受信したネット利用のモニタ66への4段階の押圧力F(記号a,b,c,d)に対して、例えば、4段階の演算係数「0 0.3 0.7 1.0」を設定して返信するようになされる。この演算係数は触覚発生コードを構成し、触覚提示部位に対応して設定される。
この例では、触覚ネットショップモード実行時に、アドレスX,Y,Z・・・を有する振動作成指示データDPXを含む触覚情報D1と、商品画像情報D6+音声情報AIN’とが結合されてWWWサーバ601からネット端末600へ配信される。ネット端末600では、触覚情報D1をデコードして振動作成指示データDPXを得る。振動作成指示データDPXには、アドレスX,Y,Z・・・が含まれるので、このアドレスX,Y,Zに基づいて記憶装置67から波形パターンデータDP0を読み出す。
また、ネット端末600は、WWWサーバ601に対して、モニタ66を押下するネット利用者の押圧力Fに関して4段階(記号a,b,c,d)が通知され、更に、アドレスX,Y,Zによって読み出した3つの波形パターンデータDP0に対する演算係数を要求する。この要求に対して、WWWサーバ601は、例えば、アドレスXによって読み出した波形パターンデータDP0に対する演算係数b’=0.3、アドレスYによって読み出した波形パターンデータDP0に対する演算係数c’=0.7、アドレスZによって読み出した波形パターンデータDP0に対する演算係数d’=1.0を配信するようになされる。
ネット端末600では、アドレスXによって読み出した波形パターンデータDP0に演算係数b’=0.3を演算して振動波形パターンデータDc1を作成し、アドレスYによって読み出した波形パターンデータDP0に演算係数c’=0.7を演算して振動波形パターンデータDc2を作成し、アドレスZによって読み出した波形パターンデータDP0に演算係数c’=1.0を演算して振動波形パターンデータDc3を各々作成する。
この振動波形パターンデータDc1は、モニタ66で商品画像の「背景」に対して、ネット利用者の指30aが触れられ、その押圧力Fが30g≦F<70gの範囲で接触された場合の触覚提示内容である。振動波形パターンデータDc2は、モニタ66で商品画像の「服」に対して、ネット利用者の指30aが触れられ、その押圧力Fが70g≦F<200gの範囲で接触された場合の触覚提示内容である。振動波形パターンデータDc3は、モニタ66で商品画像の「ボタン」に対して、ネット利用者の指30aが触れられ、その押圧力FがF≧200gの範囲で接触された場合の触覚提示内容である。これらの振動波形パターンデータDc1〜Dc3に基づいて触覚提示処理がされる。
次に、第6の実施例に係る情報処理方法について説明する。この実施例では、触覚ネットショップモードに関してWWWサーバ側の処理例及びネット端末側の処理例の2つに分けて説明をする。
[WWWサーバ側]
図28及び図29は、第6の実施例に係るWWWサーバ側の処理例(その1、2)を示すフローチャートである。
この例で第1の情報処理系I(情報配信側)には、WWWサーバ601が配置され、第2の情報処理系II(ネット端末600)には、ネット端末600が配置される。WWWサーバ601とネット端末600とは通信手段300を通じて接続される。この例では、触覚ネットショップモード実行時に、アドレスX,Y,Z・・・を有する振動作成指示データDPXを含む触覚情報D1と、商品画像情報D6+音声情報AIN’とが結合されてWWWサーバ601からネット端末600へ配信される。
これらを情報処理条件にして、WWWサーバ601は、図28に示すフローチャートのステップH11で、ネット利用者からの触覚ネットショッピング要求((着呼)を受け付ける。触覚ネットショッピング要求が無い場合はそのまま待機する。ネット利用者から触覚ネットショッピング要求が有った場合は、ステップH12に移行してWWWサーバ601は、ネット端末600と通信手段300を通じて接続するように回線「接続」処理を実行する。このとき、制御ユニット65’は、通信モデム69’を制御して相手方のネット端末601からの着呼を検出し、通信回線を接続する。
その後、WWWサーバ601は、ステップH13に移行してネット端末600のモニタ66にメニュー画面映像を表示するようになされる。メニュー画面映像には、図示しないが表示データD2に基づいて商品リストが表示される。ネット利用者は、商品リストの中から商品を選択するようになされる。
そして、ステップH14に移行してWWWサーバ601は、商品リストから商品が選択されたかを判別する。商品の選択は、ネット利用者が操作するネット端末600からWWWサーバ601へ指示される。このとき、ネット利用者は、例えば、図26に示した男性用の洋服上部(ジャケット)の商品を選択する。WWWサーバ601は、ネット端末600から指示に基づいて男性用のジャケットの商品映像を記憶装置67’から読み出すようになされる。
この男性用のジャケットの商品映像は、予め、ネットショッピング販売者側で、例えば、背広の正面、側面及び背面等の3カットについて、動画又は静止画を含む商品画像情報D6等にして、制御ユニット65’や記憶装置67’等に格納されている。もちろん、動画又は静止画を含む商品画像情報D6と触覚提示用の触覚情報D1とは対応付け処理されている。
この対応付け処理では、例えば、WWWサーバ601の制御ユニット65’が男性用のジャケットの正面向き、横向き及び斜め後ろ向き等の3カット(静止画で3枚の映像に相当)について、各々触覚が異なるような振動作成指示データDPXを得られるような触覚情報D1を記憶装置67’から読み出し、その触覚情報D1が男性用のジャケットの動画又は静止画を含む商品画像情報D6等に付加される。商品画像情報D6に付加される触覚情報D1には、振動作成指示データDPXの他に、ネット利用者のネット端末600を区分するアプリケーション情報等が含まれる。これは、ネット利用者のネット端末600に正確に触覚情報D1を指示するためである。
振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。この振動作成指示データDPXを含む触覚情報D1は、商品画像情報D6+音声情報AIN’と共に制御ユニット65’によって符号化処理され、WWWサーバ601からネット端末600へ配信される。音声情報AIN’には、商品を案内する音声案内情報が含まれる。これにより、振動波形パターンデータDcをWWWサーバ601からネット端末600へ直接配信する場合に比べて配信情報量を少なくすることができる。
そして、WWWサーバ601は、制御ユニット65’によって符号化処理された男性用のジャケットの触覚情報D1+音声情報AIN’+商品画像情報D6をステップH15で通信モデム69’及び通信手段300を通じて、ネット端末600に配信する。
その後、ステップH16でWWWサーバ601は、ネット端末600から商品画像触覚モードの要求を受け付ける。商品画像触覚モードは、触覚提示部位に対応して演算係数を設定して実行される。このとき、図27Dに示したWWWサーバ601の制御ユニット65’は、ネット端末600から受信したネット利用のモニタ66への4段階の押圧力F(記号a,b,c,d)に対して、例えば、4段階の演算係数を設定する。
そして、ステップH16でネット端末600から商品画像触覚モードの要求を受け付けた場合は、ステップH17に移行して演算係数の送信処理を実行する。この例では、ネット利用のモニタ66への4段階の押圧力F(記号a,b,c,d)に対して、4段階の演算係数「0 0.3 0.7 1.0」を設定して返信するようになされる。
なお、ステップH16で商品画像触覚モードの要求を受け付けなかった場合は、図29に示すステップH18に移行する。ステップH18で商品画像触覚モードの要求を受け付け終了を判別する。商品画像触覚モードの要求受け付けを終了した場合は、ステップH19に移行する。ステップH18で商品画像触覚モードの要求受け付けを終了していない場合は、ステップH16に戻って、上述した処理を繰り返すようになされる。
従って、ステップH18で商品画像触覚モードの要求受け付けを終了した場合には、ステップH19でWWWサーバ601では、当該商品の購入かを判別する。この際に制御ユニット65’では、例えば、ネット端末600から「商品の購入」を示す指示データを受信することで「男性用のジャケット」等の購入を確認する。当該商品購入の場合には、ステップH20に移行して当該商品購入の手続処理を実行する。商品購入の手続処理については、ネット利用者(購入者)の住所、氏名、メールアドレスや、精算等を既存のネット決済方法に基づいて処理される。
また、ステップH19で当該商品を購入しない場合及び当該商品購入の手続処理を終了した場合は、ステップH21に移行して当該触覚ネットショップモード処理を終了するか否かを判別する。当該触覚ネットショップモード処理を終了しない場合は、ステップH22に移行してWWWサーバ601は、メニュー画面に戻るか否かを受け付ける。メニュー画面に戻る場合は、ステップH13に戻って上述した処理を継続する。メニュー画面に戻らない場合は、ステップH15に戻ってその商品映像の表示処理を継続する。その後、上述した処理を繰り返すようになされる。ステップH21で当該触覚ネットショップモード処理を終了する場合は、ステップH23に移行して回線「切断」処理をして情報処理を終了する。
[ネット端末側]
図30及び図31は、触覚ネットショッピングシステム6のネット端末600における情報処理例(その1、2)を示すフローチャートである。
この実施例では、ネット端末600において、予めノーマルモード又は商品画像触覚モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、情報処理系IIで、商品画像の所定部位への接触を検出したとき、その商品画像情報D6に対応付けられた触覚情報D1に基づいてネット利用者の指等に触覚を提示する場合を例に挙げる。この例では、図27Dに示したように、WWWサーバ601の制御ユニット65’は、ネット端末600から受信したネット利用のモニタ66への4段階の押圧力F(記号a,b,c,d)に対して、4段階の演算係数「0 0.3 0.7 1.0」を設定して返信する場合を例に挙げる。
これを前提にして、ネット端末600では、図30に示すフローチャートのステップJ21で、制御ユニット65はシステムを立ち上げる。制御ユニット65は電源オンと共に、ROMからシステムプログラムデータを読み出してRAMに展開し、当該システムを立ち上げてネット端末全体を制御するようになされる。
次に、ステップJ22で制御ユニット65はネットショップを実行するか否かを受け付ける。ユーザは入力ツールを操作してネット端末600に対してネットショップを選択するか否かを指示する。ネットショップを実行する場合は、ステップJ23に移行して回線「接続」処理をする。ネット端末600は、WWWサーバ601と通信手段300を通じて接続するように回線「接続」処理を実行する。
その後、ステップJ24で制御ユニット65は、ネットショップブラウザWWWサーバ601の呼出し処理を実行する。このとき、制御ユニット65は、通信モデム69を制御してWWWサーバ601を発呼する。次に、ステップJ25で商品画像触覚モード又はノーマルモードのいずれかの動作モードが設定される。動作モードは、ネット利用者により入力ツール64が操作されて制御ユニット65に設定される。
そして、ステップJ26で通信モデム69は、制御ユニット65の制御を受けて、WWWサーバ601からメニュー画面情報や、触覚情報D1+音声情報AIN’+商品画像情報D6等を受信して復号化処理する。メニュー画面情報や、触覚情報D1+音声情報AIN’+商品画像情報D6は、制御ユニット65で分離され、メニュー画面情報や商品画像情報D6等はモニタ66を駆動する表示データD2に変換される。触覚情報D1は、商品画像触覚モードが選択された場合に備えて制御ユニット65にセットされる。音声情報AIN’は、商品リスト等の商品の案内を音声出力する際に再生される。音声はスピーカー36aから放音される。
ここで、ネット利用者は、商品案内音声を聴取したり、メニュー画面情報に基づいて表示される商品リストの中から図26に示した男性用の洋服上部(ジャケット)を選択し、通信モデム69を通じてWWWサーバ601に指示する。その後、ステップJ27に移行して、先に設定された動作モードに基づいて制御を分岐する。商品画像触覚モードが設定された場合は、図31に示すステップJ28に移行してWWWサーバ601へ商品画像触覚モードを送信する。このとき、図27Dに示したネット端末600の制御ユニット65は、WWWサーバ601に対してネット利用者のモニタ66への4段階の押圧力F(記号a,b,c,d)を送信する。
そして、ステップJ29及びJ30に移行する。ステップJ29では、先に受信した商品画像情報D6に基づいて商品画像を表示するようになされる。例えば、モニタ66には、WWWサーバ601から送られてきたメニュー画面情報や、商品画像情報D6等に基づく表示データD2によりメニュー画面や、男性用のジャケット等の商品画像を表示するようになされる。例えば、図26に示したモニタ66において、その商品表示領域(1)には、商品の男性用の洋服上部(ジャケット)の画像が表示される。
操作ボタン領域(2)には、ジャケット「¥49,000円」が表示される。操作ボタン領域(2)には、タッチパネル等の入力手段24によって構成されたアイコン領域AK1〜AK7が配置される。また、図26に示したアイコン領域AK7に表示された商品の配置設定用のアイコンを操作して、商品の部分画像を表示画面内に配置できるようになされる。この例では、十字キーアイコンを操作して、商品画像を上下、左右に移動できるようになされる。これらの商品画像は、WWWサーバ601からダウンロードされる。
これに並行して、ステップJ30で制御ユニット65は、モニタ66に表示されている商品画像に対応する触覚の提示要求を受け付ける。このとき、触覚機能付きの入力ツール64は、商品画像の所定部位へのネット利用者の指等の接触を検出して、モニタ66に表示された商品画像に対応する触覚の提示要求を受け付けるように操作される。触覚機能付きの入力ツール64によって商品画像に対応する触覚提示要求を受け付けた場合は、ステップJ31に移行する。
[触覚提示処理]
図32〜図35は、ステップJ31のサブルーチンであり、ネット端末600における触覚提示例(その1〜4)を各々示すフローチャートである。この例では、図27Bに示したネット端末600の記憶装置67には、アドレスX,Y,Z・・・によって読み出し可能な、例えば、周波数fx、振幅Axの波形パターンデータDP0、周波数fx’、振幅Ax’の波形パターンデータDP0、周波数fx”、振幅Ax”の波形パターンデータDP0・・・が格納されている。
これを処理条件にして、図31に示すステップK11で制御ユニット65は、その商品画像情報D6に対応付けられた触覚情報D1に基づいてネット利用者の指等に触覚を提示するような触覚提示制御を実行する。例えば、ステップK11で制御ユニット65は、ネット利用者の押下力の制御分界点となる加圧力F=30[g]に関して、F>30か否かを判別する。加圧力F<30の場合は、加圧力Fが30[g]を越える押下力を検出するまで制御を待機する。加圧力F=30[g]を越える押下力を検出した場合は、ステップK12に移行して、制御ユニット65はWWWサーバ601にネット利用者の指30aの位置及び加圧力Fを送信する。
WWWサーバ601では、男性用のジャケットの触覚適用部位に関して「背景」、「服」及び「ボタン」に対応して領域I、II、IIIが設定される。図27Aに示したように、領域IはアドレスXに対応付けられ、領域IIは、アドレスYに対応付けられ、領域IIIは、アドレスZに各々対応付けられる。アドレスXは、周波数fx、振幅Ax、振動回数Nxの波形パターンデータDP0を読み出すデータであり、アドレスYは、周波数fx’、振幅Ax’、振動回数Nx’の波形パターンデータDP0を読み出すデータであり、アドレスZは、周波数fx”、振幅Ax”、振動回数Nx”の波形パターンデータDP0を読み出すデータである。
アドレスX,Y,Z・・・は、振動作成指示データDPXを構成する。そして、ステップK13で制御ユニット65は、WWWサーバ601から領域Iに対応付けられたアドレスX、領域IIに対応付けられたアドレスY、領域IIIに対応付けられたアドレスZを受信する。その後、ステップK14に移行して制御ユニット65は、ネット利用者の指30aがどの領域I〜領域IIIのどの位置を押下しているかを検出する。
ネット利用者の指30aの位置が背景領域Iの場合は、図33に示すステップK15に移行する。ステップK15で制御ユニット65は、背景領域Iを押下しているネット利用者の指30aの加圧力Fを検出する。加圧力Fは、力検出センサ55a〜55d等により検出される。加圧力が30≦F<70[g]の場合はステップK16に移行する。ステップK16で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)bXを要求する。
そして、ステップK17に移行して制御ユニット65はWWWサーバ601から触覚発生コードbX=0.3を受信する。制御ユニット65は、ステップK18に移行して、触覚発生コードbXをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードbXを取得する。また、触覚情報D1をデコード処理してアドレスXを取得し、このアドレスXに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDbXを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードbX=0.3を振動波形パターンデータDbXに演算するようになされる。この振動波形パターンデータDbXは、モニタ66で商品画像の背景に対して、ネット利用者の指30aが触れられ、その押圧力Fが30g≦F<70gの範囲で接触された場合の触覚提示内容である。
次に、ステップK19に移行して、制御ユニット65は、演算後の振動波形パターンデータDbXをD/A変換して振動制御信号SVa=SbXを作成する。その後、ステップK20で制御ユニット65は、触覚発生手段40を構成する圧電アクチュエータ25a及び25bへ振動制御信号SVa=SbXを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=SbXに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。
また、上述のステップK15で加圧力F=70gを越える押下力が検出された場合は、ステップK21に移行する。ステップK21で領域Iを押下しているネット利用者の加圧力Fを検出する。この加圧力Fが70≦F<200[g]の場合はステップK22に移行する。ステップK22で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)cXを要求する。
そして、ステップK23に移行して制御ユニット65はWWWサーバ601から触覚発生コードcX=0.7を受信する。制御ユニット65は、ステップK24に移行して、触覚発生コードcXをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードcXを取得する。また、触覚情報D1をデコード処理してアドレスXを取得し、このアドレスXに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDcXを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードcX=0.7を振動波形パターンデータDcXに演算するようになされる。振動波形パターンデータDcXは、モニタ66で商品画像の背景に対して、ネット利用者の指30aが触れられ、その押圧力Fが70g≦F<200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK25に移行して、制御ユニット65は、演算後の振動波形パターンデータDcXをD/A変換して振動制御信号SVa=ScXを作成する。その後、ステップK26で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=ScXを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=ScXに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK27に移行する。
更に、上述のステップK21で加圧力F=200gを越える押下力が検出された場合は、ステップK27に移行する。ステップK27で領域Iを押下しているネット利用者の指30aの加圧力Fを検出する。この加圧力FがF≧200[g]である場合はステップK28に移行する。ステップK28で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)dXを要求する。
そして、ステップK29に移行して制御ユニット65はWWWサーバ601から触覚発生コードdX=1.0を受信する。制御ユニット65は、ステップK30に移行して、触覚発生コードdXをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードdXを取得する。また、触覚情報D1をデコード処理してアドレスXを取得し、このアドレスXに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDdXを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードdX=1.0を振動波形パターンデータDdXに演算するようになされる。振動波形パターンデータDdXは、モニタ66で商品画像の背景に対して、ネット利用者の指30aが触れられ、その押圧力FがF≧200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK30に移行して、制御ユニット65は、演算後の振動波形パターンデータDdXをD/A変換して振動制御信号SVa=SdXを作成する。その後、ステップK31で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=SdXを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=SdXに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。そして、ステップK67で制御ユニット65は終了情報を検出する。終了情報を検出しない場合は、ステップK11に戻って上述した処理を繰り返す。
例えば、ステップK14でネット利用者の指30aの押下位置が背景領域I以外に移動した場合は、ステップK32に移行する。ステップK32では、ネット利用者の指30aの押下位置が背景領域I以外の服領域II又はボタン領域IIIに応じて制御を分離する。服領域IIが押下されている場合は、図34に示すフローチャートのステップK33に移行する。
ステップK33で制御ユニット65は、服領域IIを押下しているネット利用者の指30aの加圧力Fを検出する。加圧力Fは、力検出センサ55a〜55d等により検出される。加圧力が30≦F<70[g]の場合はステップK34に移行する。ステップK34で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)bYを要求する。
そして、ステップK35に移行して制御ユニット65はWWWサーバ601から触覚発生コードbY=0.3を受信する。制御ユニット65は、ステップK36に移行して、触覚発生コードbYをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードbYを取得する。また、触覚情報D1をデコード処理してアドレスYを取得し、このアドレスYに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDbYを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードbY=0.3を振動波形パターンデータDbYに演算するようになされる。振動波形パターンデータDbYは、モニタ66で商品画像の服に対して、ネット利用者の指30aが触れられ、その押圧力Fが30g≦F<70gの範囲で接触された場合の触覚提示内容である。
次に、ステップK37に移行して、制御ユニット65は、演算後の振動波形パターンデータDbYをD/A変換して振動制御信号SVa=SbYを作成する。その後、ステップK38で制御ユニット65は、触覚発生手段40を構成する圧電アクチュエータ25a及び25bへ振動制御信号SVa=SbYを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=SbYに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。
また、上述のステップK33で加圧力F=70gを越える押下力が検出された場合は、ステップK39に移行する。ステップK39で領域IIを押下しているネット利用者の指30aの加圧力Fを検出する。この加圧力Fが70≦F<200[g]の場合はステップK40に移行する。ステップK40で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)cYを要求する。
そして、ステップK41に移行して制御ユニット65はWWWサーバ601から触覚発生コードcYを受信する。制御ユニット65は、ステップK42に移行して、触覚発生コードcYをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードcYを取得する。また、触覚情報D1をデコード処理してアドレスYを取得し、このアドレスYに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDcYを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードcY=0.7を振動波形パターンデータDcYに演算するようになされる。振動波形パターンデータDcYは、モニタ66で商品画像の服に対して、ネット利用者の指30aが触れられ、その押圧力Fが70g≦F<200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK43に移行して、制御ユニット65は、演算後の振動波形パターンデータDcYをD/A変換して振動制御信号SVa=ScYを作成する。その後、ステップK44で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=ScYを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=ScYに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。
更に、上述のステップK39で加圧力F=200gを越える押下力が検出された場合は、ステップK45に移行する。ステップK45で領域IIを押下しているネット利用者の指30aの加圧力Fを検出する。この加圧力FがF≧200[g]である場合はステップK45に移行する。ステップK45で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)dYを要求する。
そして、ステップK46に移行して制御ユニット65はWWWサーバ601から触覚発生コードdY=1.0を受信する。制御ユニット65は、ステップK47に移行して、触覚発生コードdYをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードdYを取得する。また、触覚情報D1をデコード処理してアドレスYを取得し、このアドレスYに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDdYを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードdY=1.0を振動波形パターンデータDdYに演算するようになされる。振動波形パターンデータDdYは、モニタ66で商品画像の服に対して、ネット利用者の指30aが触れられ、その押圧力FがF≧200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK48に移行して、制御ユニット65は、演算後の振動波形パターンデータDdYをD/A変換して振動制御信号SVa=SdYを作成する。その後、ステップK49で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=SdYを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=SdYに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。そして、ステップK67で制御ユニット65は終了情報を検出する。終了情報を検出しない場合は、ステップK11に戻って上述した処理を繰り返す。
例えば、ステップK32でネット利用者の指30aの押下位置が背景領域I及び服領域II以外、すなわち、ボタン領域IIIに移動した場合は、図35に示すステップK50に移行する。ステップK50で制御ユニット65は、ボタン領域IIIを押下しているネット利用者の指30aの加圧力Fを検出する。加圧力Fは、力検出センサ55a〜55d等により検出される。加圧力が30≦F<70[g]の場合はステップK51に移行する。ステップK51で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)bZを要求する。
そして、ステップK52に移行して制御ユニット65はWWWサーバ601から触覚発生コードbZ=0.3を受信する。制御ユニット65は、ステップK53に移行して、触覚発生コードbZをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードbZを取得する。また、触覚情報D1をデコード処理してアドレスZを取得し、このアドレスZに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDbZを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードbZ=0.3を振動波形パターンデータDbZに演算するようになされる。振動波形パターンデータDbZは、モニタ66で商品画像のボタンに対して、ネット利用者の指30aが触れられ、その押圧力Fが30g≦F<70gの範囲で接触された場合の触覚提示内容である。
また、上述のステップK50で加圧力F=70gを越える押下力が検出された場合は、ステップK56に移行する。ステップK56で領域IIIを押下しているネット利用者の指30aの加圧力Fを検出する。この加圧力Fが70≦F<200[g]の場合はステップK57に移行する。ステップK57で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)cZを要求する。
そして、ステップK58に移行して制御ユニット65はWWWサーバ601から触覚発生コードcZを受信する。制御ユニット65は、ステップK59に移行して、触覚発生コードcZをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードcZを取得する。また、触覚情報D1をデコード処理してアドレスZを取得し、このアドレスZに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDcZを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードcZ=0.7を振動波形パターンデータDcZに演算するようになされる。振動波形パターンデータDcZは、モニタ66で商品画像のボタン対して、ネット利用者の指30aが触れられ、その押圧力Fが70g≦F<200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK60に移行して、制御ユニット65は、演算後の振動波形パターンデータDcZをD/A変換して振動制御信号SVa=ScZを作成する。その後、ステップK61で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=ScZを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=ScZに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。
更にまた、上述のステップK56で加圧力F=200gを越える押下力が検出された場合は、ステップK62に移行する。ステップK62で制御ユニット65はWWWサーバ601に対して演算係数(触覚発生コード)dZを要求する。そして、ステップK63に移行して制御ユニット65はWWWサーバ601から触覚発生コードdZ=1.0を受信する。制御ユニット65は、ステップK64に移行して、触覚発生コードdZをデコード処理する。例えば、WWWサーバ601から受信したアプリケーション情報及び触覚情報D1をデコード処理して触覚発生コードdZを取得する。また、触覚情報D1をデコード処理してアドレスZを取得し、このアドレスZに対応する振動作成指示データDPXを記憶装置67から読み出す。
制御ユニット65は、振動作成指示データDPXに基づいて記憶装置67から読み出した1又は複数種類の波形パターンデータDP0を合成して振動波形パターンデータDdZを作成するような制御を実行する。このとき、制御ユニット65は、触覚発生コードdZ=1.0を振動波形パターンデータDdZに演算するようになされる。振動波形パターンデータDdZは、モニタ66で商品画像のボタン対して、ネット利用者の指30aが触れられ、その押圧力FがF≧200gの範囲で接触された場合の触覚提示内容である。
次に、ステップK65に移行して、制御ユニット65は、演算後の振動波形パターンデータDdZをD/A変換して振動制御信号SVa=SdZを作成する。その後、ステップK66で制御ユニット65は、圧電アクチュエータ25a、25bへ振動制御信号SVa=SdZを供給する。圧電アクチュエータ25a及び25bは、振動制御信号SVa=SdZに基づいて入力ツール64又はモニタ66を振動するようになされる。これにより、入力ツール64又はモニタ66に触れているネット利用者の指30a等に触覚を提示できるようになる。その後、図32に示すステップK67に移行する。そして、ステップK67で制御ユニット65は終了情報を検出する。終了情報を検出した場合には、図31に示したメインルーチンのステップJ31に戻る。
このように、振動波形パターンデータDbX、DcX、DdX,DbY、DcY、DdY,DbZ、DcZ、DdZに基づいて触覚提示処理がされる。この例では、図26で波線で示したように、ネット利用者の指30aを表示画面上に接触すると、その商品の肌触りを触感を以て体験できるようになされる。これにより、表示画面内のジャケットに関して、その背景、服自体及びボタンについて触覚が異なるように提示処理することができる。
なお、図30に示したステップJ27でノーマルモードが設定された場合は、ステップJ32に移行して触覚提示処理を伴わない画像表示処理を実行する。例えば、アイコン領域AK6には、ズーム設定用のアイコンが表示され、商品画像の拡大縮小を調整できるようになされる。この例では、□+印のアイコンで商品画像を拡大でき、□−印のアイコンで商品画像を縮小できるようになされる。
そして、ステップJ33に移行して制御ユニット65は、当該商品の購入か否かを判別する。この際に制御ユニット65では、例えば、入力ツール64から「商品の購入」を示す操作データD3を入力することで「男性用のジャケット」等の購入を確認する。当該商品購入の場合には、ステップJ34に移行して当該商品購入の手続処理を実行する。商品購入の手続処理については、ネット利用者(購入者)の住所、氏名、メールアドレスや、精算等を既存のネット決済方法に基づいて処理される。この例では、図26に示したアイコン領域AK5に表示された「カートに入れる」のアイコンを選択すると、ジャケット(商品)の購入決定できるようになされる。
上述のステップJ33で当該商品を購入しない場合、及び、ステップJ22でネットショップしない場合は、ステップJ35に移行して情報処理の終了を判断する。この際の終了判断では、例えば、WWWサーバ601を「閉じる」情報を検出してノーマルモード又は商品画像触覚モードに係る情報処理を終了するか否かを判断する。「閉じる」情報が検出されない場合は、ステップJ26に戻って、上述した処理を繰り返すようになされる。ステップJ35で当該触覚ネットショップモード処理を終了する場合は、「閉じる」情報を検出し、ステップJ36に移行して回線「切断」処理をして情報処理を終了する。
このように、第6の実施例に係る触覚ネットショッピングシステム6によれば、WWWサーバ601と、ネット端末600とが通信手段300を通じて接続される。ネット端末600は、WWWサーバ601から触覚情報D1+音声情報AIN’+商品画像情報D6を受信し、当該商品画像情報D6に基づいて商品画像を表示すると共に、その商品画像に対応する触覚の提示要求を受け付ける。ネット端末600は、触覚の提示要求を受け付けたとき、商品画像情報D6に対応付けられた触覚情報D1に基づいて操作体に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、ネット利用者等に対して商品画像を視るという視覚に加えて、商品画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、情報配信側で配信商品画像の所定部位に対応付けた触覚をネット端末600で体験できるような触覚ネットショッピングシステムを構築することができる。このような触覚ネットショッピングシステムは、既存の有線又は及び無線方式の公衆電話回線網やインターネット等を利用して実現可能となる。
しかも、WWWサーバ601からネット端末600へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcをWWWサーバ601からネット端末600へ直接配信する場合に比べて送信情報を少なくすることができる。
また、ネット端末600及び情報処理方法によれば、WWWサーバ601から触覚情報D1+音声情報AIN’+商品画像情報D6を通信手段300を通じて受信し、その情報処理する場合に、WWWサーバ601からネット端末600へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを発呼側から着呼側へ直接送信する場合に比べて送信情報を少なくすることができる。
更にまた、制御ユニット65は、触覚機能付きの入力ツール64によって触覚の提示要求が受け付けられたとき、当該商品画像情報D6に対応付けられた触覚情報D1に基づいてネット利用者の指等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、制御ユニット65の制御を受けて触覚を発生する。
従って、ネット利用者に対して商品画像を視るという視覚に加えて、商品画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、情報配信側で販売商品画像の所定部位に対応付けた触覚を当該ネット端末600で再現性良く提示できるようになる。
なお、本発明の通信方式は触覚双方向通信処理に応用してもよい。上述の実施例では、WWWサーバ601で触覚入力機能を利用して、商品画像の所定部位への接触が検出され、その商品画像に対応付けるための触覚情報D1が入力される。この商品画像と触覚情報D1とが制御ユニット65’で対応付けられ、ネット端末600に送信される。ネット端末600では、WWWサーバ601から受信した触覚情報D1+音声情報AIN’+商品画像情報D6に基づいて触覚提示処理する。例えば、ネット端末65の制御ユニット65は、WWWサーバ601から受信した触覚情報D1に基づいてネット利用者の指等に触覚を提示するような触覚提示処理する。このように、触覚ネットショップシステム6を構成すると、A機種のWWWサーバ601の入力操作による触覚を別のB機種のネット端末600から発生できるようになる(情報提示方向;商品販売者→ネット利用者)。
これに対して、B機種のネット端末600の入力信号に関わる触覚提示内容を通信手段300を介してWWWサーバ601に送信し、ネット端末600の入力信号に関する触覚提示内容に基づく触覚をWWWサーバ601で提示する。このように、触覚ネットショップシステム6を構成すると、B機種のネット端末600の入力操作による触覚を別のA機種のWWWサーバ601から発生できるようになる(情報提示方向;ネット利用者→商品販売者)。ネット利用者から商品販売者へ仕立て地(布)の肌触り等の注文ができる。
このように、上述の触覚ネットショップシステム6では、複数のWWWサーバ601対ネット端末600間において触覚情報D1を送受信して、当該WWWサーバ601対ネット端末600で発生させる触覚の種類を決定するようにしてもよい。これにより、インタラクティブな触覚通信処理を行うことができる。
図36は、第7の実施例としての触覚テレビ放送システム7の構成例を示す概念図である。
この実施例では、視聴者の家庭に画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701を配置し、そのパソコン701のチューナ部は、放送局から送信されてきた触覚情報D1+映像情報D7+音情報AINを受信して復号化処理する。この場合、パソコン701のモニタでは、チューナ部より受信した画像情報に基づいてその映像が表示され、音声処理部では、チューナ部より受信した音情報AINに基づいてその音が再生出力されるが、制御装置は、特定の画像情報又は及び音情報AINに対応した触覚提示処理を実行する。
図36に示す触覚テレビ放送システム7は、通常放送される映像情報D7+音声情報AIN’に加えて触覚情報D1を送信するシステムである。この例で、放送局の送信設備と画像音声触覚モード機能付きのパソコン701のチューナ部とが既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した通信手段300を通じて接続される。
例えば、触覚テレビクイズ番組を想定した場合に、その番組内でクイズ解答者が経験するクイズ不正解時の振動等を、お茶の間の視聴者においても、触覚情報D1に基づいて体験できるようにしたシステムである。因みに、クイズに不正解した場合に、クイズ解答者が着座する椅子が振動する場面が表示されるが、その振動音はスピーカーから発音される。このスピーカーから発音される振動音は、受信機本体に伝播するが、それほど大きな振幅を有していない。本発明では触覚発生手段がパソコン本体に備えられ、触覚情報D1に基づいて本体(映像表示画面等)を振動するようになされる。
このような場合に視聴者は、当該パソコン701のモニタ画面を触れたとき、振動(触覚)を手に感じることができる。また、視聴者が触覚クイズ番組に参加して、クイズに解答し、そのクイズに惜しくも不正解した場合に、視聴者が見ている表示画面又は視聴者が着座する椅子等を触覚情報D1に基づいて振動するようになされる。
図36に示す放送局70では、スタジオで画像取得処理を実行し、これに並行して音声取得処理を実行する。例えば、放送局70でクイズ解答者の映像をテレビカメラ(画像取得手段)83で撮影して映像情報D7を取得し、そのクイズ解答者の音声や、クイズ出題者、バックグランドミュージック等を集音して音情報AINを取得し、受信加入者に放送しようとする場合に、入力手段24’を操作して、例えば、解答映像場面や、不正解時のクイズ解答者への罰ゲーム、バックグランドミュージック等について、触覚提示タイミングを制御手段15’に指示するようになされる。
入力手段24’は、テレビカメラ83及び音声入出力手段54’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいてテレビカメラ83及び音声入出力手段54’を制御する。テレビカメラ83は、クイズ解答者の映像に関する映像情報D7等を取得して制御手段15’や記憶手段35’等に出力し、音声入出力手段54’は、クイズ解答者の音声に関してクイズ出題者との会話等の話声を含む音情報AIN等を取得して制御手段15’や記憶手段35’等に出力する。
放送局70の送信設備78では、クイズ解答者の映像情報D7+音情報AINと触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、クイズ解答者の問題解答正否について、各々触覚が異なって、振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1がクイズ解答者の映像情報D7+音情報AIN等に付加される。この映像情報D7+音情報AINに付加される触覚情報D1には、振動作成指示データDPXが含まれる。振動作成指示データDPXには、振動波形パターンを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、放送局70の送信設備78は、先に対応付けられた触覚情報D1+音情報AIN+映像情報D7を符号化処理し、通信手段300を通じて、一斉に、画像音声触覚モード機能付きのテレビ受信機や、同機能付きのパソコン701等に送信する。送信設備78では、制御手段15’によって処理された触覚情報D1+音情報AIN+映像情報D7を多重変調処理等を実行する。
送信設備78には、送信アンテナ79が接続される。送信設備78に接続された送信アンテナ79は、放送加入者の画像音声触覚モード機能付きのテレビ受信機や、同機能付きのパソコン701等のアンテナへ向けて放送電波が輻射される。衛星放送システムの場合は、放送電波が放送衛星705から視聴者のパラボラアンテナ703で受信される。デジタル地上波放送システム及びアナログ放送システムの場合は、放送電波が放送局70の送信アンテナ79から視聴者の八木アンテナで受信される。
図37は、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701の構成例を示すブロック図である。
この例で、情報処理装置#2jの一例を構成する画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701が備えられる。情報処理装置#2jには、このようなパソコン701の他に、同機能付きのブラウン管型のカラーテレビや、液晶型のカラーテレビ、デスクトップ型のテレビチューナ機能付きのパソコンが適用される。本発明に係るテレビチューナ機能付きのパソコン701は、画像音声触覚モード実行可能な制御装置75を有している。制御装置75には、テレビチューナ部71、映像/音声/触覚分離部72、音声処理部76、映像処理部77、触覚発生手段40、入力ツール84及びタッチパネル88が接続される。
テレビチューナ部71は衛星用の受信端子71a及び地上波用の受信端子71bを有している。衛星用の受信端子71aには、図36に示したパラボラアンテナ703を通じてデジタルの衛星放送信号が入力される。地上波用の受信端子71bには、図36に示した八木アンテナ704を通じてデジタルの地上波又はアナログの放送信号が入力される。テレビチューナ部71は、触覚クイズ番組や、他の触覚放送番組等を選局制御信号SS1に基づいて選局し、当該放送局70の送信アンテナ79から送信されてきた触覚クイズ番組に係る触覚情報D1+映像情報D7+音情報AINを受信して復号化処理する。
テレビチューナ部71には映像/音声/触覚分離部72が接続され、復号化処理された触覚情報D1+音情報AIN+映像情報D7を分離制御信号SS2に基づいて分離し、触覚情報D1、映像情報D7及び音情報AINを各々出力するようになされる。分離制御信号SS2は、制御装置75からチューナ部71に出力される。
映像/音声/触覚分離部72には、音声処理部76、映像処理部77及び触覚発生手段40が接続される。音声処理部76にはスピーカー36が接続され、音声処理部76は音声制御信号SS3に基づいて音声情報AIN’を入力し、音声情報AIN’をデジタル/アナログ変換処理し、アナログの音声信号をスピーカー36に出力する。スピーカー36は、クイズ解答者の音声や、クイズ出題者の音声を放音する。音声制御信号SS3は、制御装置75から音声処理部76に出力される。
映像処理部77にはカラー用のモニタ89が接続され、映像処理部77では映像制御信号SS4に基づいて映像情報を入力し、映像情報をカラー映像処理し、アナログ又はデジタルのカラー用の映像信号をモニタ89に出力する。モニタ89は、カラー用の映像信号に基づいてクイズ解答者の映像や、クイズ出題者の映像、クイズ出題映像等を表示するようになされる。映像制御信号SS4は、制御装置75から映像処理部77に出力される。
この例で触覚発生手段40には、バイモルフ型の圧電アクチュエータ25a〜25d又は振動モータ等のアクチュエータ25が接続される。触覚発生手段40では、触覚制御信号SS5に基づいて触覚情報D1を入力し、触覚情報D1に基づいてデジタル/アナログ変換処理し、アナログの振動駆動電圧Vaをアクチュエータ25に出力する。アクチュエータ25は、モニタ89の例えば、枠体に取り付けられる。アクチュエータ25は振動駆動電圧Vaに基づいてモニタ89を振動するようになされる。触覚制御信号SS5は、制御装置75から触覚発生手段40に出力される。
この例で触覚発生手段40には、振動駆動電圧出力用の出力端子40aが設けられる。この出力端子40aには、アクチュエータ25を取り付けた座椅子等が接続される。アクチュエータ25は振動駆動電圧Vaに基づいて図示しない座椅子等を振動するようになされる。また、上述のモニタ89に、例えば、タッチパネル88を設け、モニタ表示映像の特定部位に触れたとき、制御装置75でその映像に関連する触覚提示制御を実行するようにしてもよい(図38参照)。
制御装置75には、タッチパネル88の他に入力ツール84が接続され、放送番組の選局や、音声ボリューム調整時、ノーマルモード又は映像音声触覚モード設定時に操作される。入力ツール84には、周知のリモートコントローラ(以下リモコンという)85が適用される。リモコン85は、入力ツール84に対して放送番組の選局や、音声ボリューム調整、ノーマルモード又は映像音声触覚モードの設定を指示するように遠隔操作される。
図38は、ある触覚クイズ番組におけるクイズ画面の表示例を示す図である。図38に示すクイズ画面はモニタ89に表示される。クイズ画面は、例えば、4者択一問題の場合、モニタ89の表示領域を4つに分割して表示される。表示画面「1」には、例えば、大中小の△印が表示され、表示画面「2」には、例えば、大中小の○印が表示され、表示画面「3」には、例えば、大中小の□印が表示され、表示画面「4」には、例えば、十字状の印が各々表示される。
表示画面「1」の領域をタッチすると、タッチパネル88から接触検出信号が制御装置75に出力されることから、制御装置75は、視聴者が大中小の△印を選択したと判断する。同様にして、視聴者が表示画面「2」の領域をタッチすると、制御装置75は、視聴者が大中小の○印を選択したと判断する。視聴者が表示画面「3」の領域をタッチすると、制御装置75は、視聴者が大中小の□印を選択したと判断される。視聴者が表示画面「4」の領域をタッチすると、制御装置75は視聴者が十字状印を選択したと判断される。この例で、制御装置75は、タッチパネル88から出力される接触検出信号に基づいて触覚提示制御を実行する。
図39は、触覚テレビ放送システム7における情報処理例(送信側)を示すフローチャートである。
この実施例では、図36に示した放送局70で映像情報D7+音情報AINの他に触覚情報D1を、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701に送信する。放送局70の送信設備78と画像音声触覚モード機能付きのパソコン701のテレビチューナ部71とが既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した通信手段300を通じて接続される。この例で、放送局70の送信設備78では、予め画像音声触覚モードの設定処理がなされる場合を前提とする。
これらを情報処理条件にして、図39に示す送信側のフローチャートのステップL11で放送局70は、スタジオで画像取得処理を実行する。例えば、スタジオでテレビカメラ83を操作してクイズ解答者の映像を撮影して映像情報D7を取得する。
これに並行してステップL12で音声取得処理を実行する。例えば、マイクロフォン等を使用してクイズ解答者の音声や、バックグランドミュージック等を集音して音情報AINを取得する。このとき、受信加入者に映像情報D7+音情報AINと共に触覚情報D1を放送しようとする場合に、クイズ解答者の映像やクイズ出題者との会話、バックグランドミュージック等について、触覚提示タイミングを制御手段15’に指示するように入力手段24’が操作される。
入力手段24’は、テレビカメラ83及び音声入出力手段54’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいてテレビカメラ83及び音声入出力手段54’を制御する。テレビカメラ83は、クイズ解答者の映像に関する映像情報D7等を取得して制御手段15’や記憶手段35’等に出力し、音声入出力手段54’は、クイズ解答者の音声に関して、出題者との会話を含む音情報AIN等を取得して制御手段15’や記憶手段35’等に出力する。
その後、ステップL13で放送局70の送信設備78は、クイズ解答者の音(声)情報AIN+映像情報D7と触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、クイズ解答者の問題解答正否について、各々触覚が異なって振動作成指示データDPXを得られるような触覚情報D1を記憶手段35’から読み出し、その触覚情報D1がクイズ解答者の音情報AIN+映像情報D7等に付加される。この音情報AIN+映像情報D7に付加される触覚情報D1には、振動作成指示データDPXが含まれる。振動作成指示データDPXには、振動波形パターンを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップL14で放送局70の送信設備78は、先に対応付けられた触覚情報D1+音情報AIN+映像情報D7を符号化処理する。このとき、送信設備78では、制御手段15’によって処理された触覚情報D1+音情報AIN+映像情報D7を多重変調処理等を実行する。その後、送信設備78は、多重変調処理された触覚情報D1+音情報AIN+映像情報D7をステップL15で通信手段300を通じて、一斉に、画像音声触覚モード機能付きのテレビ受信機や、同機能付きのパソコン701等に送信する。
図40は、触覚テレビ放送システム7における情報処理例(受信側)を示すフローチャートである。
この実施例で、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701は、放送局70から受信した映像情報D7の表示処理及び音情報AINの再生処理をすると共に触覚情報D1を処理するになされる。この例で、衛星放送システムを利用する場合は、放送電波が放送衛星705から視聴者のパラボラアンテナ703で受信される。
デジタル地上波放送システム及びアナログ放送システムを利用する場合は、放送電波が放送局70の送信アンテナ79から視聴者の八木アンテナ704で受信される。受信側のテレビチューナ機能付きのパソコン701等で、クイズ画面の特定部位を触れたとき、また、その映像情報D7又は音情報AINに対応付けられた触覚情報D1に基づいて表示画面又は操作者の座椅子等に触覚を提示する場合を例に挙げる。
この例ではクイズ解答者体験モード及び視聴者クイズ参加モードとが準備されている。クイズ解答者体験モードでは、クイズ解答者がクイズに不正解した場合は、クイズ解答者に与えられる罰ゲーム等の振動を体験できるようになされる。視聴者クイズ参加モードでは、視聴者がクイズに答えて不正解した場合に、クイズ解答者の着座する椅子が回転するといった、罰ゲーム等の振動を体験できるようになされる。
これらを情報処理条件にして、パソコン701では、図40に示すフローチャートのステップM11で、まず、ノーマルモード又は画像音声触覚モードのいずれかの動作モードが設定される。画像音声触覚モードを選択した場合は、更に、クイズ解答者体験モード又は視聴者クイズ参加モードのいずれかの動作モードが設定される。これらの動作モードは、パソコン701の入力ツール84又はリモコン85が視聴者(操作者)により操作されて制御装置75に設定される。
そして、ステップM12でテレビチューナ部71は、制御装置75の制御を受けて、放送局70から送られてくる触覚情報D1+音情報AIN+映像情報D7を受信して復号化処理する。触覚情報D1+音情報AIN+映像情報D7は、例えば、制御装置75で分離され、映像情報D7はモニタ89に出力される。音情報AINは音声処理部76に出力される。触覚情報D1は、画像音声触覚モードが選択された場合に備えて制御装置75にセットされる。
その後、ステップM13に移行して、先に設定された動作モードに基づいて制御を分岐する。画像音声触覚モードが設定された場合は、ステップM14及びN15に移行する。ステップM14では、先に受信した映像情報D7+音情報AINに基づいて映像及び受信音を出力処理する。例えば、モニタ89では、放送局70から送られてきた映像情報D7に基づくクイズ解答者及び4者択一クイズ出題映像が表示される。クイズ出題映像は、モニタ89で分割表示される。音声処理部76では、放送局70から送られてきた音情報AINに基づく会話音声等がスピーカー36により放音される。
これに並行して、ステップM15で制御装置75は、先に設定された動作モードに基づいて制御を分岐する。視聴者クイズ参加モードが設定された場合は、ステップM16、N17,N18又はN19に移行する。これは4者択一の問題に答えるためである。このとき、制御装置75は、視聴者が分割映像表示領域のどの部分を選択したか否かを監視し、その接触を検出する。これは4者択一問題の解答を接触検知によって識別するためである。このとき、触覚機能付きの入力ツール84は、操作パネル88で操作者(視聴者)の指等の接触を検出して、モニタ89で映像表示される4者択一問題に対応する触覚提示タイミングを検出するように操作される。
例えば、ステップM16で図38に示したクイズ画面において、表示画面「1」領域がタッチされたか否かを監視し、その接触を検出する。表示画面「1」領域がタッチされた場合は、タッチパネル88から接触検出信号を入力し、制御装置75は、視聴者が大中小の△印を選択したと判断する。その後、ステップM20に移行する。
また、ステップM17で表示画面「2」領域がタッチされたか否かを監視し、その接触を検出する。表示画面「2」領域がタッチされた場合は、タッチパネル88から接触検出信号を入力し、制御装置75は、視聴者が大中小の○印を選択したと判断する。その後、ステップM20に移行する。
更に、ステップM18で表示画面「3」領域がタッチされたか否かを監視し、その接触を検出する。表示画面「3」領域がタッチされた場合は、タッチパネル88から接触検出信号を入力し、制御装置75は、視聴者が大中小の□印を選択したと判断される。その後、ステップM20に移行する。
更にまた、ステップM19で視聴者が表示画面「4」の領域をタッチすると、制御装置75は視聴者が十字状印を選択したと判断される。この例で、制御装置75は、タッチパネル88から出力される接触検出信号に基づいて触覚提示制御を実行する。その後、ステップM20に移行する。
ステップM20では、4者択一の問題の解答要否に基づいて制御を分岐する。視聴者クイズ参加モードであって、視聴者が選択した問題を不正解した場合は、ステップM23に移行して第1の触覚提示処理を実行する。
クイズ解答者体験モードが設定されている場合は、ステップM21で、制御装置75は、特定のクイズ出題映像に係る映像情報D7や、クイズ解答時の受け答え、バックグランドミュージック等に係る音情報AINに各々の対応付けられた触覚情報D1に基づいて操作者の指や、操作者が着席する椅子等に触覚を提示するように触覚提示制御を実行する。
このとき、パソコン701の制御装置75では、放送局70からパラボラアンテナ703又は八木アンテナ704を通じて受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御装置75は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。制御装置75は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、制御装置75から触覚発生手段40を構成する圧電アクチュエータ25a〜25dや振動モータに供給される。圧電アクチュエータ25a〜25dや振動モータは、視聴者が着席する座椅子等に取り付けられている。これらのアクチュエータでは、振動制御信号Sa〜Sd等に基づいて視聴者が着席する椅子等を振動するようになされる。これにより、座椅子等に着席している視聴者に対して、クイズ不正解時に、触覚情報D1に対応した触覚を提示できるようになる(第1の触覚提示処理)。その後、ステップM23に移行する。
また、ステップM11でクイズ解答者体験モードが設定されていて、ステップM15でそのクイズ解答者がその問題に不正解した場合には、ステップM21に移行して、第2の触覚提示処理を実行する。
このとき、パソコン701の制御装置75では、放送局70からパラボラアンテナ703又は八木アンテナ704を通じて受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。制御装置75は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。制御装置75は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、制御装置75から触覚発生手段40を構成する圧電アクチュエータ25a〜25dに供給される。圧電アクチュエータ25a〜25dは、入力ツール84や、モニタ89等に予め取り付けられている。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力ツール84や、モニタ89等を振動するようになされる。これにより、入力ツール84やモニタ89に触れている操作者の指等に、クイズ解答者がその問題に不正解した時に、例えば、クイズ解答者が座っている座席が回転する際の振動をモニタ画面を触れることで体感(触覚提示)できるようになる(第2の触覚提示処理)。その後、ステップM23に移行する。
なお、ステップM13でノーマルモードが設定された場合は、ステップM22に移行して触覚提示処理を伴わない映像情報D7及び音情報AINの出力処理を実行する。その後、ステップM23に移行する。また、ステップM20で視聴者が選択した問題を正解した場合や、クイズ解答者がその問題に正解した場合には、触覚提示処理を中止してステップM23に移行して制御装置75は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は画像音声触覚モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップM13に戻って、上述した処理を繰り返すようになされる。
このように、第7の実施例に係る触覚テレビ放送システム7によれば、放送局70の送信設備78と、パラボラアンテナ703又は八木アンテナ704を通じて、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701とが既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した通信手段300を通じて接続される。テレビチューナ機能付きのパソコン701は、クイズ不正解時等の触覚提示タイミングを検出したとき、音情報AIN+映像情報D7に対応付けられた触覚情報D1に基づいて、表示画面に触れている視聴者の指や、視聴者が着席する椅子等に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、放送局70から送信されてきた触覚情報D1に基づいて遠隔地の一般家庭において、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701で触覚を提示することができる。このことで、視聴者に対して放送局70から提供される画像を視るという視覚、クイズ解答者の会話やバックグランドミュージックを聞くという聴覚に加えて、クイズ不正解時に、クイズ画面に対応付けられた触覚を再現性良く提示できるようになる。
これにより、音情報AIN+映像情報D7に対応付けられた触覚情報D1に基づいて視聴者の指や、視聴者が着席する椅子等に触覚を提示(体験)できるような情報処理システムを構築することができる。このような情報処理システムは、既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した触覚テレビ放送システムに十分応用できる。しかも、放送局70の送信設備78からテレビ機能付きのパソコン701へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを送信設備78から当該パソコン701へ直接配信する場合に比べて送信情報を少なくすることができる。
また、画像音声触覚モード機能及びテレビチューナ機能付きのパソコン及びその情報処理方法によれば、放送加入者のテレビチューナ機能付きのパソコン701では、放送局70からパラボラアンテナ703又は八木アンテナ704を通じて触覚情報D1+音情報AIN+映像情報D7を受信し、クイズ不正解時のクイズ解答者の画像に対応する触覚提示タイミングを検出する。制御装置75は、触覚提示タイミングを検出したとき、当該音情報AIN+映像情報D7に対応付けられた触覚情報D1に基づいて視聴者の指や、視聴者が着席する椅子等に触覚を提示するように触覚発生手段40を制御する。触覚発生手段40は、制御装置75の制御を受けて触覚を発生する。
従って、視聴者に対して放送局70から提供される画像を視るという視覚、クイズ解答者の会話やバックグランドミュージックを聞くという聴覚に加えて、クイズ不正解時に、クイズ画面に対応付けられた触覚を再現性良く提示できるようになる。これにより、当該画像音声触覚モード機能及びテレビチューナ機能付きのパソコンは、音情報AIN+映像情報D7に対応付けられた触覚情報D1に基づいて視聴者の指や、視聴者が着席する椅子等に触覚を提示(体験)できるような触覚テレビ放送システムに寄与するところが大きい。
図41は、他の触覚テレビ放送システム7’の構成例を示す概念図である。この実施例では、第7の実施例で説明した触覚提示制御がリモコンで選択可能なようになされる。
図41に示す触覚テレビ放送システム7’には、画像音声触覚モード機能付きのテレビ受信機702と、リモートコントローラ(リモコン)85と、アクチュエータ取り付け済みの椅子80が備えられる。画像音声触覚モード機能付きのテレビ受信機702は、第7の実施例で説明したパソコン701とほぼ同様な構成を有している。モニタ89に関しては、液晶ディスプレイの他にブラウン管や、プラズマディスプレイ(PDP素子)が使用される。
この例で、音情報AINにロケットの発射音や、大砲の爆発音、エンジン音、ビルの破壊音といった、大きな振動を伴う場合に、その音情報AINを補うように、触覚情報D1に基づいて視聴者が着座する椅子80に振動を提示するようになされる。この例では、大きな振動を伴う音情報AINを検出し、この音情報AIN検出時を触覚提示タイミングとなされる。このような音情報AIN検出時でも、触覚提示タイミングを無効とするように、振動提示のオン/オフをリモコン85で遠隔設定できるようになされている。
図42は、椅子80におけるアクチュエータ25の取付例を示す斜視図である。図42に示す椅子80は、椅子本体80aを有している。椅子本体内部には、例えば、振動モータ48が設けられ、振動制御信号Sa〜Sd等に基づいて振動するようになされる。椅子本体80aは、例えば、座部、背もたれ部及び肘掛け部を有している。椅子本体座部内には、圧電アクチュエータ25a〜25dが取り付けられ、振動制御電圧Va等に基づいて振動するようになされる。
椅子本体左右の肘掛け部内には、圧電アクチュエータ25e、25fが取り付けられ、振動制御電圧Va等に基づいて振動するようになされる。椅子本体背もたれ部内には、圧電アクチュエータ25g〜25iが取り付けられ、振動制御電圧Va等に基づいて振動するようになされる。これらのアクチュエータ25は、図37に示した出力端子40a等に接続される。
このような画像音声触覚モード機能付きのテレビ受信機702では、リモコン85のIrDA(赤外線)通信によって、画像音声触覚モードが設定されると、放送局70から送られてくる触覚情報D1+音情報AIN+映像情報D7を受信して復号化処理することは第7の実施例で説明した通りである。
この例では、触覚情報D1+音情報AIN+映像情報D7のうち、ロケットの発射音や、大砲の爆発音、エンジン音、ビルの破壊音といった、大きな振動を伴う音情報AINを検出したとき、その音情報AINをトリガにして、触覚提示制御が起動される。この触覚提示制御では、視聴者が着座する椅子80に触覚情報D1に基づいて振動を提示するようになされる。
例えば、制御装置75で分離された映像情報D7はモニタ89に出力される。音情報AINは音声処理部76に出力される。触覚情報D1は、リモコン85によって画像音声触覚モードが選択された場合に備えて制御装置75にセットされる。画像音声触覚モードが設定された場合は、先に受信した音情報AIN+映像情報D7に基づいて受信音を出力処理する。例えば、モニタ89では、放送局70から送られてきた映像情報D7に基づくロケット発射映像が表示される。音声処理部76では、放送局70から送られてきた音情報AINに基づくロケット発射音が図示しないスピーカー36等により放音される。
これに並行して、制御装置75は、モニタ89で映像表示されるロケット発射映像や、音声処理部76で放音されるロケット発射音に関して、触覚提示タイミングを検出する。この触覚提示タイミング検出と共に、この音情報AINをトリガにして、触覚情報D1に基づいて視聴者が着席する椅子80に触覚を提示するように触覚提示制御を実行する。
このように、第7の実施例に係る他の触覚テレビ放送システム7’によれば、音情報AINにロケットの発射音や、大砲の爆発音、エンジン音、ビルの破壊音といった、大きな振動を伴う場合に、その音情報AINを補うように、触覚情報D1に基づいて視聴者が着座する椅子80に振動を提示するようになされる。
しかも、このような大きな振動を伴う音情報AINを検出したときでも、触覚提示タイミングを無効とするように、振動提示のオン/オフをリモコン85で遠隔設定できるようになされている。
従って、視聴者に対して放送局70から提供される画像を視るという視覚、ロケットの発射音や、大砲の爆発音、エンジン音、ビルの破壊音等を聞くという聴覚に加えて、これらの大きな音を伴う音情報AINに対応付けられた触覚を再現性良く、しかも、選択性良く提示できるようになる。これにより、音情報AIN+映像情報D7に対応付けられた触覚情報D1に基づいて視聴者が着席する椅子80等に触覚を提示(体験)できるような情報処理システムを構築することができる。このような情報処理システムは、既存の衛星放送システム、デジタル地上波放送システム又はアナログ放送システム等を利用した触覚テレビ放送システムに十分応用できる。
しかも、放送局70の送信設備78からテレビ受信機702へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを送信設備78からテレビ受信機702へ直接配信する場合に比べて送信情報を少なくすることができる。
この触覚テレビ放送システム7’はホームシアタシステムにも応用することができる。ホームシアタシステムは、映画を記録した記録媒体(DVD)再生して、映像及び音声情報AIN’を出力するシステムである。この映画再生において、ロケットの発射音や、大砲の爆発音、エンジン音、ビルの破壊音といった、大きな振動を伴う場合に、その音情報AINを補うように、触覚情報D1に基づいて視聴者が着座する椅子80に振動を選択性良く提示するようになされる。視聴者は、あたかも、そのロケット発射場や、戦場、サーキット場、ビル破壊現場等に居るような臨場感溢れる体験を得ることができる。
図43は、第8の実施例としての触覚ゲーム情報配信システム8の構成例を示す概念図である。
この実施例では、情報配信側でゲーム画像の所定部位に触覚を対応付け処理し、この触覚を情報利用者側の携帯電話機で体験できるようにすると共に、触覚ゲーム情報配信システム8で触覚を伴うゲーム情報D8のダウンロードする際に、触覚情報D1のデータ量を低減できるようにした。この例では、「モグラたたきゲーム」の画像にリンクした「モグラの動き」を触覚情報D1で表現する場合を例に挙げる。
図43に示す触覚ゲーム情報配信システム8は、動画又は及び静止画を含むゲーム情報D8に対応付けられた触覚提示用の触覚情報D1をゲーム機能付きの携帯電話機等に配信するシステムである。携帯電話機には第4の実施例で説明した携帯電話機400が応用される。触覚ゲーム情報配信システム8は、携帯電話機400の他に、これらのゲーム情報D8に結合された触覚提示用の触覚情報D1を処理するパソコンや、同機能付きの情報携帯端末装置、同機能付きのテレビジョン受信機等、また、これらを応用した通信システムに適用して好適である。
触覚ゲーム情報配信システム8では、既存の通信手段(通信基盤)300が応用される。通信手段300には、有線通信手段及び無線通信手段が含まれる。例えば、触覚ゲーム情報配信システム8には、既存の有線及び無線方式の公衆電話回線網が利用される。通信手段300は、情報配信装置(第1の情報処理装置;第1の情報処理系I)とゲーム機能付きの携帯電話機400(第2の情報処理装置;第2の情報処理系II)とを有線方式又は無線方式により電気的に接続できるものであればどんな通信方式であってもよい。なお、触覚情報D1付きのゲーム情報D8の配信形態は、通信メディアに限られることはなく、パッケージメディアを介して提供するようにしてもよい。
この触覚ゲーム情報配信システム8でその送信側の情報処理装置#1iの一例となる情報配信装置801が通信手段300に接続され、動画又は及び静止画を含むゲーム情報D8と触覚提示用の触覚情報D1とを対応付けてゲーム機能付きの携帯電話機400へ配信処理するようになされる。情報配信装置801は、例えば、画像取得手段3’、制御手段15’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’を備えて構成される。
入力手段24’は、画像取得手段3’を操作するための操作データD3を入力したり、配信要求時、情報配信モードを設定するように操作される。例えば、モグラアニメ画像を作成してゲーム情報D8を取得し、配信要求者にダウンロード(配信)しようとする場合に、「なでる」、「お、重い」、「だれか触った」、「痛い!」等の異常反応と正常反応について、触覚提示位置を制御手段15’に指示するように操作される。
画像取得手段3’は、モグラのアニメ画像を取得してゲーム情報D8を出力する。例えば、モグラアニメ画像を作成してゲーム情報D8を取得し、配信要求者に配信しようとする場合に、「なでる」、「お、重い」、「だれか触った」、「痛い!」等の異常反応と正常反応について、動画又は静止画に係るゲーム情報D8を取得する。音声入出力手段54’は、モグラの吹き出し音声を入力するようになされる。音声入出力手段54’には音声入出力処理回路や、モニタとしてのスピーカー、キャラクタ吹き替え者の声を集音するマイクロフォン等が使用される。
記憶手段35’には、配信要求者の携帯電話機400に配信するための触覚情報D1が格納される。触覚情報D1には、ゲーム機能付きの携帯電話機400で振動波形パターンデータDcの素材データとなる波形パターンデータDP0を記憶手段から読み出して振動制御信号Sa〜Sd等を作成する旨を指示するための振動作成指示データDPXが含まれている。触覚情報D1には、振動作成指示データDPXの他に、配信要求者の携帯電話機400を区分するアプリケーション情報等が含まれている。
振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。これは、ゲーム機能付きの携帯電話機400で周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号Sa等を作成するためである。記憶手段35’には、触覚情報D1の他に画像取得手段3’によって取得された、モグラのゲーム情報D8が格納される。
表示手段29’は、画像取得手段3’によって取得された、例えば、ゲーム情報D8に基づく表示データD2によりモグラアニメ画像等の映像を表示するようになされる。情報配信者側で、モグラアニメ画像と声の吹き替えを確認できるようになされている。
制御手段15’は、画像取得手段3’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’の入出力を制御する。例えば、制御手段15’は、画像取得手段3’を制御してモグラの動画又は及び静止画を含むゲーム情報D8等の画像取得処理を実行し、その後、ゲーム情報D8と触覚情報D1とを対応付ける。
対応付け処理は、例えば、モグラアニメ画像で「なでる」、「お、重い」、「だれか触った」、「痛い!」等の異常反応と正常反応について、各々触覚が異なるような振動作成指示データDPXが得られるような触覚情報D1がモグラの動画又は及び静止画を含むゲーム情報D8等に付加される。この付加後の情報を「触覚情報D1+ゲーム情報D8」と記述する。そして、制御手段15’は、配信要求者の携帯電話機400に触覚情報D1+ゲーム情報D8を符号化して配信する処理を実行する。
通信モデム19’は、有線通信手段又は無線通信手段等の通信回線を接続して配信要求者と通信処理を実行する。例えば、通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+ゲーム情報D8を配信要求者の携帯電話機400に配信する。なお、触覚情報D1+ゲーム情報D8をパッケージメディアを介して提供する場合は、情報配信装置801に図示しないCD−ROMドライバが装備される。
触覚ゲーム情報配信システム8には、情報処理装置の一例となるゲーム機能付きの携帯電話機400が準備される。携帯電話機400は、配信側の情報配信装置801に対して通信手段300を通じて接続可能な装置である。図示しないが、パッケージメディアが装着可能なカードスロットを装備するようになされる。情報処理装置には、携帯電話機400の他に、触覚入力機能付きのパソコンや、情報携帯端末装置等が使用され、これらは通信手段300に接続され、触覚情報D1+ゲーム情報D8を受信し、当該ゲーム情報D8に基づいて受信画像を表示すると共に、当該受信画像に対応する触覚提示要求を受け付け、その提示要求に基づいて触覚を提示するようになされる。
例えば、携帯電話機400は、受信部21、表示手段29、CPU32、記憶手段35、触覚発生手段40、映像&音声処理部44及び触覚機能付きの入力検出手段45を備えて構成される(図10参照)。この例で、受信部21は、配信側の情報配信装置801から触覚情報D1+ゲーム情報D8を受信して復号化処理する。表示手段29には、受信部21より受信したゲーム情報D8に基づいて受信画像を表示する。例えば、情報配信業者の情報配信装置801から送られてきたゲーム情報D8に基づく表示データD2によりモグラアニメ画像等を表示するようになされる。
触覚機能付きの入力検出手段45は、モグラアニメ画像の所定部位への接触を検出して、表示手段29に表示されたモグラアニメ画像に対応する触覚の提示要求を受け付けるように操作される。入力検出手段45には、タッチパネルやシートセンサ、力検出センサ、圧電アクチュエータ25a〜25d等が使用される。タッチパネルやシートセンサ等は、操作者の指の接触位置を検出するように使用される。
力検出センサは、操作者の指の押下力を検出するように使用される。圧電アクチュエータ25a〜25dは触覚発生手段40を構成し、触覚情報D1に基づいて発生された振動制御信号Sa〜Sd等より振動を発生し、操作者の指等に触覚を提示するように使用される。
この携帯電話機400では、モグラアニメ画像に対応する触覚の提示要求を受け付けたとき、触覚発生手段40を制御するようになされる。例えば、CPU32は、入力検出手段45から触覚提示要求を入力し、当該ゲーム情報D8に対応付けられた触覚情報D1に基づいて操作者の指(操作体)に触覚を提示するように触覚発生手段40を制御する。
記憶手段35には、振動作成指示データDPXをアドレスにして読み出し可能な複数種類の波形パターンデータDP0が格納される。この例では、振動波形パターンデータDcを構成する素材データとして、触覚提示用の複数種類の周波数fx及び振幅Axの波形パターンデータDP0が準備されている。これは、情報配信業者の情報配信装置801で指定する触覚情報D1に対応する振動波形パターンデータDcをゲーム機能付きの携帯電話機400で再現(構築)するためである。
このように、配信側からゲーム機能付きの携帯電話機400へ振動作成指示データDPXを符号化して配信することにより、振動波形パターンデータDcを配信側からゲーム機能付きの携帯電話機400へ直接配信する場合に比べて配信情報量を少なくすることができる。なお、記憶手段35には、複数種類の波形パターンデータDP0の他に、当該携帯電話機400から情報配信業者へダウンロードを要求する際のデータ等が格納される。
この例で受信部21が配信側の情報配信装置801から触覚情報D1を受信して復号化処理する場合であって、CPU32は、受信部21によって受信された触覚情報D1に基づいて記憶手段35から波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
例えば、CPU32は、情報配信装置801から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。CPU32は、更に、振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出す。CPU32は、記憶手段35から読み出した複数種類の波形パターンデータDP0を合成し、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、CPU32からアクチュエータ駆動回路37を通じて圧電アクチュエータ25a〜25dへ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。
このようにすると、配信側の情報配信装置801から作成指示された触覚提示用の振動波形パターンデータDcを当該ゲーム機能付きの携帯電話機400のCPU32で作成することができ、しかも、情報配信装置801で触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcを含む触覚情報D1を当該携帯電話機400へ配信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
また、携帯電話機400のCPU32で複数種類の波形パターンデータDP0を組み合わせることによって多種多様の触覚を発生できるようになる。しかも、配信側の情報配信装置801より配信される触覚情報D1の内容の差異によってゲーム機能付きの携帯電話機400の個々の触覚発生手段40により発生される触覚の種類を異ならせることができる。
図44は、第8の実施例に係る振動パターン、入力情報内容、振動条件及び具体的波形例を示す表図である。この例で、CPU32は、押下操作位置における「モグラ」等のキャラクタ操作入力画面で表示及び振動制御を実行するが、摺動接触操作(なで方)によって、そのモグラの表情が変化するようになされる。
図44に示す表図によれば、ゲーム機能付きの携帯電話機400において、その記憶手段35には、例えば、6通りの振動パターンP13,P23,P33,P43,P53,P63を構築可能な波形パターンデータDP0(素材データ)が予め準備され格納されている。
振動パターンP13は、入力情報内容として「なでられて嬉しい」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「なでられて嬉しい」の摺動接触操作では、入力検出面を判定閾値Kth以下の移動速度HtでZ方向に操作体を押下し、その第1の押下判定領域内で検出される加圧力Fに応じて、「なでられて嬉しい」の入力が確定される。その際の振動条件は、周波数fx[Hz]、振幅Ax[μm]及び回数Nx[回]に関して[fx Ax Nx]=[50 30 1]である。振動パターンP13は、振動パターンデータDP13によって与えられる。
振動パターンP23は、入力情報内容として「正常反応(1)」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「正常反応(1)」の摺動接触操作では、入力検出面を判定閾値Kth以下の移動速度HtでZ方向に操作体を押下し、第2の押下判定領域内で検出される加圧力Fに応じて、「正常反応(1)」を表現する入力が確定される。その際の振動条件は、[fx Ax Nx]=[200 30 1]、[250 5 4]及び、[400 30 1]である。振動パターンP23は、振動パターンデータDP23によって与えられる。
振動パターンP33は、入力情報内容として「お、重い・・・」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「お、重い・・・」の摺動接触操作では、入力検出面を判定閾値Kth以下の移動速度HtでZ方向に操作体を押下し、第3押下判定閾値を越える加圧力Fに応じて、「お、重い・・・」を表現する入力が確定される。その際の振動条件は、[fx Ax Nx]=[500 15 連続]である。振動パターンP33は、振動パターンデータDP33によって与えられる。
振動パターンP43は、入力情報内容として「あれ、誰かさわったかな?」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「あれ、誰かさわったかな?」の摺動接触操作では、入力検出面を判定閾値Kthを越える移動速度HtでZ方向に操作体を押下し、第1の押下判定領域内で検出される加圧力Fに応じて、「あれ、誰かさわったかな?」を表現する入力が確定される。その際の振動条件は、[fx Ax Nx]=[400 30 1]、[450 5 1]、[500 10 2]、[600 20 4]及び[800 30 8]である。振動パターンP43は、振動パターンデータDP43によって与えられる。
振動パターンP53は、入力情報内容として「正常反応(2)」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「正常反応(2)」の摺動接触操作では、入力検出面を判定閾値Kthを越える移動速度HtでZ方向に操作体を押下し、第2の押下判定領域内で検出される加圧力Fに応じて、「正常反応(2)」を表現する入力が確定される。その際の振動条件は、[fx Ax Nx]=[80 15 4]、[280 30 4]、空白期間85ms(無振動)、[fx Ax Nx]=[280 30 4]及び[160 15 4]である。振動パターンP53は、振動パターンデータDP53によって与えられる。
振動パターンP63は、入力情報内容として「痛い!」を表現する場合であって、その摺動接触操作をする際に右欄に示す触覚波形を与える。「痛い!」の摺動接触操作では、入力検出面を判定閾値Kthを越える移動速度HtでZ方向に操作体を押下し、第3の押下判定領域内で検出される加圧力Fに応じて、「痛い!」を表現する入力が確定される。その際の振動条件は、[fx Ax Nx]=[1000 30 1]、空白期間300ms(無振動)、[fx Ax Nx]=[2000 30 1]及び空白期間700ms(無振動)であって、これらを連続する。振動パターンP63は、振動パターンデータDP63によって与えられる。
このような振動パターンデータDP13,DP23,DP33,DP43,DP53,DP63は、振動作成指示データDPXに基づいて作成され、作成後に記憶手段35に格納され、これらの振動パターンデータDP13,DP23,P33,P43,P53,P63に基づく振動制御信号Sa〜Sfがアクチュエータ駆動回路37からアクチュエータ25a〜25fに供給される。これにより、「なでなでゲームモード」が選択された場合に、その摺動接触操作(なで方)によって、そのモグラの表情が変化し、しかも、操作者の指30aに触覚を与えることができる。
次に、第8の実施例に係る情報処理方法について説明する。図45〜図50は、触覚ゲーム情報配信システム8における情報処理例を示すフローチャートである。この実施例において、図43に示した第1の情報処理系I(配信側)には、情報配信装置801が配置され、第2の情報処理系IIには、触覚ゲーム機能付きの携帯電話機400が配置される。情報配信装置801と携帯電話機400とは通信手段300を通じて接続される。この例で、触覚ゲーム情報配信システム8における情報処理に関しては、情報配信処理、振動パターン作成処理及び触覚ゲーム処理の3つに分けて説明する。
[情報配信処理]
図45は、触覚ゲーム情報配信システム8における情報処理例(情報配信側)を示すフローチャートである。
第1の情報処理系I(情報配信側)において、図45に示すフローチャートのステップN11で情報配信装置801は画像取得処理を実行する。例えば、情報配信業者側でモグラアニメ画像を作成してゲーム情報D8を取得し、このゲーム情報D8を配信要求者に配信しようとする場合に、「なでる」、「お、重い」、「だれか触った」、「痛い!」等の異常反応と正常反応について、触覚提示位置を制御手段15’に指示するように入力手段24’が操作される。
入力手段24’は、画像取得手段3’を操作するための操作データD3を制御手段15’に出力する。制御手段15’は、操作データD3に基づいて画像取得手段3’を制御する。画像取得手段3’は、モグラアニメ画像に関して動画又は静止画を含むゲーム情報D8等を取得して制御手段15’や記憶手段35’等に出力する。このとき、表示手段29’には、画像取得手段3’によって取得された、ゲーム情報D8に基づく表示データD2によりモグラアニメ画像等の映像が表示される。
その後、ステップN12で制御手段15’は、動画又は静止画を含むゲーム情報D8と触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、モグラアニメ画像の「なでる」、「お、重い」、「だれか触った」、「痛い!」等の異常反応と正常反応について、各々触覚が異なるような振動作成指示データDPXを得られる触覚情報D1を記憶手段35’から読み出し、その触覚情報D1がモグラアニメの動画又は静止画を含むゲーム情報D8等に付加される。
ゲーム情報D8に付加される触覚情報D1には、振動作成指示データDPXの他に、配信要求者の携帯電話機400を区分するアプリケーション情報等が含まれる。これは、配信要求者の携帯電話機400に正確に触覚情報D1を配信するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップN13でゲーム情報D8の配信要求を待機する。このとき、配信要求者の携帯電話機400では、CPU32が送信部22を制御して情報配信業者の情報配信装置801を呼出し通信回線を接続する。配信側では、配信要求者からゲーム情報D8の配信要求が有った場合は、ステップN14に移行する。ステップN14で、制御手段15’は、先に対応付けられた触覚情報D1+ゲーム情報D8を通信手段300を通じて、携帯電話機400に符号化して配信する。例えば、制御手段15’は、通信モデム19’を制御して先に接続されている通信回線を通じて配信要求者の携帯電話機400に触覚情報D1+ゲーム情報D8をダウンロードするようになされる。
その後、ステップN15に移行して、制御手段15’は情報配信処理の終了判別する。この際に、制御手段15’は、例えば、情報情報配信業者が入力手段24’を使用して情報配信処理終了を指示する場合は、情報配信処理を終了する。情報情報配信業者が情報配信処理終了を指示しない場合は、ステップ13に戻って情報配信処理を継続する。これにより、配信要求者の利用に応える形態で触覚情報D1+ゲーム情報D8をダウンロードするようになる。
[振動パターン作成例]
図46は、携帯電話機40における振動パターン作成例を示すフローチャートである。
この実施例では、配信要求者は、情報配信業者に触覚情報D1+ゲーム情報D8の配信要求を情報配信業者が配信要求者へ触覚情報D1+ゲーム情報D8を配信する場合を例に挙げる。
これらを情報処理条件にして、CPU32は、図46に示すフローチャートのステップQ1で電源オンを待機する。例えば、CPU32は電源オン情報を検出してシステムを起動する。電源オン情報は通常、時計機能等が稼働し、スリーピング状態にある携帯電話機等の電源スイッチをオンされたときに発生する。
そして、ステップQ2に移行してCPU32は、メニュー画面を表示するように表示手段29を制御する。例えば、CPU32は、表示手段29に表示データD2を供給して表示画面に、メニュー画面を表示する。このメニュー画面には、例えば、「ゲーム情報ダウンロード」モードが含まれる。このメニュー画面に表示された入力情報は、入力検出面を有した入力検出手段45を通じて目視可能になされる。そして、ステップQ3に移行してCPU32は、「ゲーム情報ダウンロード」モード又はその他の処理モードに基づいて制御を分岐する。
「ゲーム情報ダウンロード」モードが設定された場合、CPU32は、ステップQ4に移行してアニメゲーム画像情報(単にゲーム情報D8という)を配信要求するか否かの受け付け処理を実行する。このとき、「モグラなでなでゲーム」を含むゲーム情報D8をリスト表示するように表示手段29を制御する。配信要求者は、「モグラなでなでゲーム」等を配信要求する場合は、この表示リスト上で選択するように入力検出手段45を操作する。ここで配信要求をしない場合や、配信要求をキャンセル等する場合は、ステップQ11に移行して他の処理モードを実行する。
配信要求をする場合は、ステップQ5に移行して、周知の技術に基づいて通信回線「接続」処理を実行する。例えば、携帯電話機400は、情報配信業者の情報配信装置801を発呼し、相手方からの応呼を検出して通信回線を接続する。その後、ステップQ6でCPU32は情報配信装置801から触覚情報D1+ゲーム情報D8を入力する。例えば、受信部21がCPU32の制御を受けて、情報配信装置801から触覚情報D1+ゲーム情報D8を受信し、これらの情報を一旦記憶装置35に格納する。
その後、ステップQ7に移行して、周知の技術に基づいて通信回線「切断」処理を実行する。そして、ステップQ8に移行して振動パターンデータを作成するか否かを判別する。この際に、配信要求者は、振動パターンデータの作成有無をCPU32に指示する。振動パターンデータの作成指示は、操作データD3となってCPU32に出力される。CPU32は、操作データD3に基づいて振動パターンデータの作成有無を判別する。振動パターンデータの作成指示が無い場合は、ステップQ11に移行して他の処理モードを実行する。他の処理モードには、電話モードや電子メールモード等が含まれる。
配信要求者から振動パターンデータの作成指示が有った場合は、ステップQ9に移行してCPU32は、振動パターンデータ作成を実行する。例えば、触覚情報D1+ゲーム情報D8を復号化処理する。復号化後の触覚情報D1+ゲーム情報D8は、CPU32でデコード処理される。このデコード処理でCPU32は、振動作成指示データDPXを取得する。CPU32は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
図44に示した例では、周波数fx[Hz]、振幅Ax[μm]及び回数Nx[回]に関して、振動作成指示データDPX=[fx Ax Nx]=[50 30 1]に基づいて振動パターンデータDP13が作成される。この振動パターンデータDP13は、「なでられて嬉しい」を表現する際の振動パターン13である。同様にして、振動作成指示データDPX=[fx Ax Nx]=[200 30 1]、[250 5 4]及び、[400 30 1]に基づいて振動パターンデータDP23が作成される。この振動パターンデータDP23は、「正常反応(1)」を表現する際の振動パターンP23である。
振動作成指示データDPX=[fx Ax Nx]=[500 15 連続]に基づいて振動パターンデータDP33が作成される。この振動パターンデータDP33は、「お、重い・・・」を表現する際の振動パターンP33である。振動作成指示データDPX=[fx Ax Nx]=[400 30 1]、[450 5 1]、[500 10 2]、[600 20 4]及び[800 30 8]に基づいて振動パターンデータDP43が作成される。この振動パターンデータDP43は、「あれ、誰かさわったかな?」を表現する際の振動パターンP43である。
振動作成指示データDPX=[fx Ax Nx]=[80 15 4]、[280 30 4]、空白期間85ms(無振動)、[fx Ax Nx]=[280 30 4]及び[160 15 4]に基づいて振動パターンデータDP53が作成される。振動パターンデータDP53は「正常反応(2)」を表現する際の振動パターンP53である。振動作成指示データDPX=[fx Ax Nx]=[1000 30 1]、空白期間300ms(無振動)、[fx Ax Nx]=[2000 30 1]及び空白期間700ms(無振動)に基づいて振動パターンデータDP63が作成される。振動パターンデータDP63は「痛い!」を表現する際の振動パターンP63である。
このように作成された振動パターンデータDP13、DP23、DP33、DP43、DP53、DP63は、ステップQ10でCPU32が記憶手段35に格納するようになされる。これは、画像触覚モードが選択された場合に備えるためである。
上述のステップQ10で振動パターンデータDP13、DP23、DP33、DP43、DP53、DP63を記憶手段35に格納した場合及びステップQ11で他の処理モードを実行した場合は、ステップQ12に移行する。ステップQ12では終了判別をする。例えば、CPU32は、電源オフ情報を検出して振動パターンデータ作成処理を終了する。電源オフ情報が検出されない場合は、ステップQ2に戻って、メニュー等のアイコン画面を表示し、上述した処理を繰り返すようになされる。
[触覚ゲーム処理]
図47〜図50は、触覚ゲーム機能付きの携帯電話機400の情報処理例(その1〜4)を示すフローチャートである。
この実施例の携帯電話機400では、予め他の処理モード又は”なでなでゲームモード”(画像触覚モード)のいずれかの動作モードの設定処理がなされる場合を前提とする。また、携帯電話機400で、モグラアニメ画像の所定部位への接触を検出したとき、そのゲーム情報D8に対応付けられた触覚情報D1に基づいて操作者の指等に触覚を提示する場合を例に挙げる。なお、携帯電話機400の動作例については、先に説明した図10を参照する。
この例では、キャラクタ操作入力画面(入力検出面)のX方向及びY方向に、操作者の指30aを摺動する場合であって、入力検出面における操作者の指30aの移動速度を検出すると共に、押下位置のZ方向の加圧力Fを検出し、操作者の指30aの移動速度及び押下位置の加圧力Fに基づいて入力検出面を振動及び入力情報を表示制御する場合を例に挙げる。
例えば、CPU32は、入力検出手段45から前回の検出によって得られた入力検出情報(入力量)D12と今回の検出によって得られた入力検出情報D12との差分を演算し、この差分に基づいて圧電アクチュエータ25a〜25d及び表示手段29の出力を制御する。図10に示した入力検出手段45は、入力手段24及び力検出手段55a〜55dから構成されることは前述した通りである。入力手段24は、操作者の指30aのX方向及びY方向への移動量を測定する。この例で、指30aのXY方向における入力位置をx,yとし、ある時刻からX方向及びY方向への指30aの移動量の総和をそれぞれΣx、Σyとすると、入力手段24は、Σx、Σyを検出する。
また、前記のサンプリングの際に検出された指30aのZ方向への押圧力をZf[gf]とし、さらに、今回のサンプリングの際に検出されるZ方向への押圧力をZf’とする。この例では、指30aのZ方向への押圧力Zfは押下判定領域が設定されており、押圧力Zfに対応する押下判定領域の値をFとし、Zf’に対応する押下判定領域の値をF’とする。
このZ方向への力関係において、入力手段24が、Z方向の入力を検出することができる最小の押圧力をα[gf]とする。また、入力手段24は、指30aの横(X)移動及びその縦(Y)移動を検出するが、そのX及びY移動における移動量の合計をHとすると、移動量Hは、H=(Σx+Σy)/2である。
この移動量Hには誤動作防止のために閾値が設定され、その閾値をJthとする。また、単位時間当たりの移動量をHtとする。なお、触覚区別のために、単位時間当たりの移動量Htには閾値が設定されており、それをKthとする。
更にまた、力検出手段55a〜55dには、3段階の押下判定閾値が設定されている。それぞれの押下判定閾値は、α=Fth1、A=Fth2、B=Fth3[gf]であり、これらの3つの押下判定閾値α、A、Bの間には、α<A<Bなる関係に設定される。これらの3つの押下判定閾値α、A、Bの関係は、A<α<Bであってもよい。
力検出手段55a〜55dには、3つの押下判定閾値α、A、Bを運用する3つの押下判定領域が設定され、それぞれを第1〜第3判定領域とし、これらの第1〜第3判定領域は値を持ち、次のような値に設定する。第1判定領域では、その判定条件が、α<Zf<Aでその値(F)が「1」である。第2判定領域ではその判定条件が、A<Zf<Bでその値(F)が「2」である。第3判定領域ではその判定条件が、Zf>Bでその値(F)が「3」である。
このように入力装置90(図7参照)を構成すると、操作者の指30aの摺動接触操作を停止した位置におけるZ方向(奥行)の入力検出情報D12に基づいて、三次元表示された文字情報を触覚を伴って入力することができる。ユニークな「なでなでゲーム」モード等のゲーム機能を実現できるようになる。
これらを情報処理条件にして、CPU32は、図47に示すフローチャートのステップST1で電源オンを待機する。CPU32は電源オン情報を検出してシステムを起動する。電源オン情報は通常、時計機能等が稼働し、スリーピング状態にある携帯電話機の電源スイッチをオンされたときに発生する。
そして、ステップST2に移行してCPU32は、メニュー画面を表示するように表示手段29を制御する。例えば、CPU32は、表示手段29に表示データD2を供給して表示画面に、メニュー画面を表示する。このメニュー画面には”なでなでゲームモード”が含まれる。このメニュー画面に表示された入力情報は、入力検出面を有した入力検出手段45を通じて目視可能になされる。そして、ステップST3に移行してCPU32は、”なでなでゲームモード”又はその他の処理モードに基づいて制御を分岐する。動作モードは、ゲーム機能付きの携帯電話機400の操作者により入力検出手段45が操作されてCPU32に設定される。
”なでなでゲームモード”が設定された場合、CPU32は、ステップST4に移行して、先に受信したゲーム情報D8に基づいてモグラアニメ画像を表示し、「なでなでゲーム」画面を表示するように表示手段29を制御する。例えば、表示手段29は、情報配信業者の情報配信装置801から送られてきたゲーム情報D8に基づく表示信号Svによりモグラアニメ画像等を表示する。表示手段29は図43に示したような土中から顔を出しているモグラ等のキャラクタ操作入力画面を表示する。
そして、ステップST5に移行してCPU32は、表示手段29に表示されているモグラアニメ画像に対応する触覚の提示要求を受け付ける。このとき、触覚機能付きの入力検出手段45は、受信画像の所定部位への操作者の指30a等の接触を検出して、表示手段29に表示されたモグラアニメ画像に対応する触覚の提示要求を受け付けるように操作される。
例えば、指30aのZ方向への押圧力Zfと、入力手段24における最小の押圧力αとに関して、第1判定閾値αを越える押圧力Zf(Zf>α)、かつ、指30aのX,Y方向への移動量Hに関して、閾値Jthを越える移動量H(H>Jth)が検出されたか否かを判別する。この閾値Jthは、移動量Hの誤動作防止のために設定される。入力手段24では、操作者の指30aのX方向及びY方向への移動量が測定される。
この例で、指30aのXY方向における入力位置をx,yとし、ある時刻からX方向及びY方向への指30aの移動量の総和をそれぞれΣx、Σyとすると、入力手段24は、Σx、Σyを検出する。指30aのX方向への移動及びそのY方向への移動における合計の移動量Hは、H=(Σx+Σy)1/2で与えられる。
この移動量Hは入力手段24から出力される位置検出信号S11をA/Dドライバ31によりA/D変換し、そのA/D変換後の位置検出情報D11によって得られる。押圧力Zfは力検出手段55a〜55dから出力される入力検出信号S12をA/Dドライバ31によりA/D変換し、そのA/D変換後の入力検出情報D12によって得られる。
指30aのZ方向への押圧力Zfと、入力手段24における最小の押圧力αとに関して、Z>αとならない場合、かつ、指30aのX,Y方向への移動量H及びその閾値Jthに関して、H>Jthとならない場合は、入力手段24における移動量4及び力検出手段55a〜55dにおける押圧力Zfの監視を継続する。
上述のステップST5で、Z>αかつH>Jthとなった場合は、ステップST6に移行して、CPU32は、単位時間当たりの移動量(移動速度)Htを演算処理する。移動量Htは移動時間をTとすると、Ht=H/Tで与えられる。触覚区別のために、単位時間当たりの移動量Htには閾値Kthが設定される。
そして、CPU32は、ステップST7に移行して単位時間当たりの移動量Htと、その判定閾値Kthに関して、判定閾値Kthを越える移動量Ht(Ht>Kth)が検出されたか否かを判別する。Ht>Kthとなる場合は、図47に示すステップST8に移行してCPU32は、前回のサンプリングの際に検出された指30aのZ方向への押圧力Zf[gf]と、今回のサンプリングの際に検出されるZ方向への押圧力Zf’に関して、|F’−F|を演算する。
この例でFは、前回のサンプリング時の押圧力Zfに対応する押下判定領域の値である。F’は、今回のサンプリング時の押圧力Zf’に対応する押下判定領域の値である。例えば、第1判定領域では、その判定条件が、α<Zf<Aでその値(F)が「1」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「1」とすると、|F’−F|の演算結果は「0」となる。
そして、ステップST9に移行して、上述の演算結果が|F’−F|=0となるかを検出する。この演算結果が|F’−F|=0となる場合、つまり、触覚提示要求を受け付けた場合、CPU32は、そのゲーム情報D8に対応付けられた触覚情報D1に基づいて操作者の指30a等に触覚を提示するように触覚提示制御を実行する。この例では、ステップST10に移行して、振動パターンP13を発振する。入力情報内容は「なでられて嬉しい」である。
ここでCPU32は、合成後の振動波形パターンデータDP13をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。その後、ステップST11に移行してX,Yの移動量検出をリセットする。
そして、図50に示すステップST28に移行して、CPU32は、「なでなでゲーム」終了か否かを判別する。「なでなでゲーム」終了か否かは、例えば、図示しないゲーム終了ボタンの押下を検出することで識別される。ゲーム処理を終了する場合は、ステップST30に移行するが、ゲーム処理を終了しない場合は、図47に示したステップST5に戻る。その後、ステップST6〜ST9の処理を実行する。
上述のステップST9で演算結果が、|F’−F|=0とならない場合は、ステップST12に移行して、上述の演算結果が、|F’−F|=1となるかを検出する。例えば、第2判定領域では、その判定条件が、A<Zf<Bでその値(F)が「2」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「2」とすると、|F’−F|の演算結果は「1」となる。
従って、演算結果が|F’−F|=1となる場合は、ステップST13に移行して振動パターンP23を発振する。入力情報内容は「正常反応(1)」である。ここでCPU32は、合成後の振動波形パターンデータDP23をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。その後、ステップST14に移行してX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6〜ST9を経由してステップST12に移行する。
このステップST12で上述の演算結果が、|F’−F|=1とならない場合は、ステップST15に移行して、上述の演算結果が|F’−F|=2となるかを検出する。例えば、第3判定領域では、その判定条件が、Zf>Bでその値(F)が「3」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「3」とすると、|F’−F|の演算結果は「2」となる。
従って、演算結果が|F’−F|=2となる場合は、ステップST16に移行して振動パターンP33を発振する。ここでCPU32は、合成後の振動波形パターンデータDP33をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。
これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。入力情報内容は、「お、重い・・・」である。その後、ステップST16に移行してX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6〜ST9及びST12を経由してステップST15に移行する。
このステップST15で上述の演算結果が、|F’−F|=2とならない場合は、ステップST16をパスしてX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6を経由してステップST7に移行する。
このステップST7で単位時間当たりの移動量Htと、その判定閾値Kthに関して、移動量Htが判定閾値Kth以下(Ht≦Kth)となる場合は、図49に示すステップST18に移行してCPU32は、前回のサンプリングの際に検出された指30aのZ方向への押圧力Zf[gf]と、今回のサンプリングの際に検出されるZ方向への押圧力Zf’に関して、|F’−F|を演算して、|F’−F|=0となるかを検出する。
この例でFは、前回のサンプリング時の押圧力Zfに対応する押下判定領域の値である。F’は、今回のサンプリング時の押圧力Zf’に対応する押下判定領域の値である。例えば、第1判定領域では、その判定条件が、α<Zf<Aでその値(F)が「1」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「1」とすると、|F’−F|の演算結果は「0」となる。
従って、演算結果で|F’−F|=0となる場合は、ステップST20に移行して、振動パターンP43を発振する。ここでCPU32は、合成後の振動波形パターンデータDP43をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。
これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。入力情報内容は、「あれ、誰かさわったかな?」である。その後、ステップST9に移行してX,Yの移動量検出をリセットする。そして、図50に示すステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6、ST7、ステップST18を経由してステップST19に移行する。
ステップST19で|F’−F|=0とならない場合は、ステップST22に移行して、上述の演算結果が、|F’−F|=1となるかを検出する。例えば、第2判定領域では、その判定条件が、A<Zf<Bでその値(F)が「2」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「2」とすると、|F’−F|の演算結果は「1」となる
従って、演算結果が|F’−F|=1となる場合は、ステップST23に移行して振動パターンP53を発振する。ここでCPU32は、合成後の振動波形パターンデータDP53をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。
これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。入力情報内容は、「正常反応(2)」である。その後、ステップST24に移行してX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6、ST7、ST18、ST19を経由してステップST22に移行する。
このステップST22で上述の演算結果が、|F’−F|=1とならない場合は、ステップST25に移行して、上述の演算結果が|F’−F|=2となるかを検出する。例えば、第3判定領域では、その判定条件が、Zf>Bでその値(F)が「3」である。ここで、前回の押下判定領域の値Fを「1」とし、今回の押下判定領域の値F’を「3」とすると、|F’−F|の演算結果は「2」となる。
従って、演算結果が|F’−F|=2となる場合は、ステップST26に移行して振動パターンP63を発振する。ここでCPU32は、合成後の振動波形パターンデータDP63をデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25d等へ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。
これにより、入力検出手段45又は表示手段29に触れている操作者の指等に触覚を提示できるようになる。入力情報内容は、「お、痛い!」である。その後、ステップST27に移行してX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理を終了していない場合、CPU32はステップST5に戻り、その後、ステップST6、ST7、ST18、ST19及びステップST22を経由してステップST25に移行する。
このステップST25で上述の演算結果が、|F’−F|=2とならない場合は、ステップST26をパスしてX,Yの移動量検出をリセットする。そして、ステップST28に移行して、ゲーム処理の終了を判別する。ゲーム処理の終了によりステップST30に移行する。
なお、上述のステップST3で他の処理モードが選択された場合は、ステップST29に移行して他の処理モードを実行する。他の処理モードには、触覚提示処理を伴わない画像表示処理や、電話モード、電子メールモード等が含まれる。電話モード及び電子メールモードには、相手方に電話又はメールを発信する操作が含まれる。他の処理モードを実行した後は、ステップST30に移行する。ステップST30でCPU32は、電源オフ情報を検出して情報処理を終了する。電源オフ情報が検出されない場合は、ステップST2に戻って、メニュー等のアイコン画面を表示し、上述した処理を繰り返すようになされる。
このように、第8の実施例に係る触覚ゲーム情報配信システム8によれば、配信側の情報配信装置801と、触覚ゲーム機能付きの携帯電話機400とが通信手段300を通じて接続される。情報配信装置801は、動画又は及び静止画を含むゲーム情報D8と触覚提示用の触覚情報D1とを対応付けて配信処理する。これを前提にして、携帯電話機400は、情報配信装置801から触覚情報D1+ゲーム情報D8を受信し、当該ゲーム情報D8に基づいてモグラアニメ画像等を表示すると共に、そのアニメ画像に対応する触覚の提示要求を受け付ける。携帯電話機400は、触覚の提示要求を受け付けたとき、ゲーム情報D8に対応付けられた触覚情報D1に基づいて操作者の指30a等に触覚を提示するように触覚発生手段40を制御するようになされる。
従って、触覚ゲーム機能付きの携帯電話機400の操作者等に対してモグラアニメ画像を視るという視覚に加えて、受信画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、情報配信業者側で配信アニメ画像の所定部位に対応付けた触覚をゲーム機能付きの携帯電話機400で体験できるような情報処理システムを構築することができる。このような情報処理システムは既存の有線又は及び無線方式の公衆電話回線網等を利用した触覚ゲーム情報配信システムに十分応用できる。
しかも、配信側の情報配信装置801から受信側の携帯電話機400へ振動作成指示データDPXを符号化して配信しているので、振動波形パターンデータDP13、DP13、DP23、DP33,DP43、DP53、DP63を情報配信装置801から携帯電話機400へ直接配信する場合に比べて配信情報量を少なくすることができる。
図51は第9の実施例としての触覚地図情報配信システム9の構成例を示す概念図である。
図1に示す触覚地図情報配信システム9は、物理空間に情報を配置し、地図情報に対応付けられた触覚提示用の触覚情報D1を処理するシステムである。触覚地図情報配信システム9は、これらの地図情報に結合された触覚提示用の触覚情報D1を処理するパーソナルコンピュータ(以下単にパソコンという)や、携帯電話機、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置等、また、これらを応用した通信システムに適用して好適である。地図情報には、一般家庭用のデジタルカメラや、業務用の放送局向けカメラ等で土地や建物等の航空撮影した映像や、パソコンにより作成したCADデータ等を含んでいる。
触覚地図情報配信システム9では、既存の通信手段(通信基盤)300が応用される。通信手段300には、有線通信手段及び無線通信手段が含まれる。例えば、無線で触覚地図情報を配信する基地局が配置される。基地局は送信アンテナ902を有しており、この送信アンテナ902には情報配信装置が接続される。送信アンテナ902の周辺一体は、無線通信可能な範囲(情報サービスエリア)と、無線電波が届かない非通信範囲とに分かれている。
この無線通信可能な範囲内に、携帯電話機等の無線機器を所持した情報利用者が立ち入ったとき、情報配信装置が情報利用者の携帯電話機等に触覚地図情報を配信するようになされる。もちろん、情報利用者は、携帯電話機等において、触覚地図情報モードを予め選択し、当該モードを設定している必要がある。触覚地図情報モードとは、情報サービスエリア内において、商店街や、映画館等の地図画像情報D9及びそれに付加された触覚情報D1を配信する動作をいう。この例でも、携帯電話機には、第4の実施例で説明した携帯電話機400が応用される。
この触覚地図情報配信システム9で、情報処理装置#1iの一例となる情報配信装置901が送信アンテナ902等の通信手段300に接続され、地図情報D9と触覚提示用の触覚情報D1とを対応付けて情報利用者の携帯電話機400へ送信処理するようになされる。情報配信装置901は、例えば、画像取得手段3’、制御手段15’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’を備えて構成される。
入力手段24’は、画像取得手段3’を操作するための操作データD3を入力したり、モード設定時、触覚地図情報配信モードを設定するように操作される。例えば、情報サービスエリア内を航空撮影して地図情報D9を取得し、相手方に送信しようとする場合に、商店街、映画館、最寄りの交番、レストラン、駅、バス停等について、触覚提示位置を制御手段15’に指示するように操作される。
画像取得手段3’は、情報サービスエリア内の道路、橋、線路、建物の画像を取得して地図情報D9を出力する。例えば、航空撮影して得た地図情報D9と、情報配信業者が情報サービスしようとする提供位置を地図情報D9上にプロットし、情報利用者に配信しようとする場合に、情報サービスエリア内の道路、橋、線路、建物の画像に、商店街、映画館、最寄りの交番、レストラン、駅、バス停等を合成して、地図画像に係る地図情報D9を取得する。音声入出力手段54’は、情報案内者の音声を入力したり、情報案内者の音声を確認する際に使用される。音声入出力手段54’には音声入出力処理回路や、スピーカー、マイクロフォン等が使用される。
記憶手段35’には、情報利用者の携帯電話機400に指示するための触覚情報D1が格納される。触覚情報D1には、受信側で波形パターンデータDP0を記憶手段35から読み出して振動制御信号Sa等を作成する旨を指示するための振動作成指示データDPXが含まれている。波形パターンデータDP0は、振動波形パターンデータDcの素材データである。触覚情報D1には、振動作成指示データDPXの他に、情報利用者の携帯電話機400を区分するアプリケーション情報等が含まれている。
振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。これは、受信側の携帯電話機400#2jで周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号Sa等を作成するためである。記憶手段35’には、触覚情報D1の他に画像取得手段3’によって取得された、情報サービスエリア内の地図情報D9が格納される。
表示手段29’は、画像取得手段3’によって取得された、例えば、情報サービスエリア内の地図情報D9に基づく表示データD2により、情報サービスエリア内の道路、橋、線路、建物、商店街、映画館、最寄りの交番、レストラン、駅、バス停等の映像を表示するようになされる。これは、情報サービスエリア内の地図情報D9に変更が生じたとき、これを情報配信者側で確認するためである。
制御手段15’は、画像取得手段3’、通信モデム19’、入力手段24’、表示手段29’、記憶手段35’及び音声入出力手段54’の入出力を制御する。例えば、制御手段15’は、画像取得手段3’を制御して情報サービスエリア内の地図情報D9等の画像取得処理を実行し、その後、地図情報D9と触覚情報D1とを対応付ける。
対応付け処理は、例えば、情報サービスエリア内の道路、橋、線路、建物にプロットされた、商店街、映画館、最寄りの交番、レストラン、駅、バス停について、各々触覚が異なるような振動作成指示データDPXが得られる触覚情報D1が情報サービスエリア内の地図情報D9等に付加される。この付加後の情報を「触覚情報D1+地図情報D9」と記述する。そして、制御手段15’は、情報利用者の携帯電話機400に触覚情報D1+地図情報D9を符号化して送信する処理を実行する。
通信モデム19’は、有線通信手段又は無線通信手段等の通信回線、送信アンテナ902を接続して情報利用者と通信処理を実行する。例えば、通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+地図情報D9を情報利用者の携帯電話機400に配信する。もちろん、情報利用者の携帯電話機400において、予め触覚地図情報配信モードが設定されており、当該情報サービスエリア内に、携帯電話機400を所持した情報利用者が立ち入ったときに、その情報利用者の携帯電話機400に触覚地図情報を配信するようになされる。
触覚地図情報配信システム9でその受信側には、携帯電話機400が配置される。携帯電話機400は、送信側の情報配信装置901に対して基地局の送信アンテナ902等の通信手段300を通じて接続可能な無線通信装置である。無線通信装置は携帯電話機400の他に、触覚入力機能付きのノート型のパソコン、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置が使用され、これらは通信手段300に接続され、触覚情報D1+地図情報D9を受信し、当該地図情報D9に基づいて地図画像を表示すると共に、当該地図画像に対応する触覚提示要求を受け付け、その提示要求に基づいて触覚を提示するようになされる。
例えば、携帯電話機400は、受信部21、表示手段29、CPU32、記憶手段35、触覚発生手段40、映像&音声処理部44及び触覚機能付きの入力検出手段45を備えて構成される(図10参照)。この例で、受信部21は、情報配信業者の情報配信装置901から触覚情報D1+地図情報D9を受信して復号化処理する。
表示手段29には、受信部21より受信した地図情報D9に基づいて地図画像を表示する。例えば、情報配信業者の情報配信装置901から送られてきた地図情報D9に基づく表示データD2により情報サービスエリア内の地図画像等を表示するようになされる。情報サービスエリアが渋谷駅周辺であるとすると、渋谷ハチ公前の道路、商店街等の地図画像が表示される。商店街を表示する領域に、その店の所在を示すプロットや、「おいしいランチはここ!」等の宣伝メッセージを表示するとよい。
触覚機能付きの入力検出手段45は、情報サービスエリア内の地図画像の所定部位への接触を検出して、表示手段29に表示されたそのエリア内の地図画像に対応する触覚の提示要求を受け付けるように操作される。上述の例で、情報利用者の指等が「おいしいランチはここ!」の店表示領域上を触れるとその接触位置を検出するようになされる。入力検出手段45には、タッチパネルやシートセンサ、力検出センサ、圧電アクチュエータ25a〜25d等が使用される。タッチパネルやシートセンサ等は、情報利用者の指30aの接触位置を検出するように使用される。
力検出センサは、情報利用者の指の押下力を検出するように使用される。圧電アクチュエータ25a〜25dは触覚発生手段40を構成し、触覚情報D1に基づいて発生された振動制御信号Sa〜Sd等より振動を発生し、情報利用者の指30a等に触覚を提示するように使用される。
この携帯電話機400では、情報サービスエリア内の地図画像に対応する触覚の提示要求を受け付けたとき、触覚発生手段40を制御するようになされる。例えば、CPU32は、入力検出手段45から触覚提示要求を入力し、当該地図情報D9に対応付けられた触覚情報D1に基づいて情報利用者の指30a(操作体)に触覚を提示するように触覚発生手段40を制御する。
記憶手段35には、振動作成指示データDPXをアドレスにして読み出し可能な複数種類の波形パターンデータDP0が格納される。この例では、振動波形パターンデータDcを構成する素材データとして、触覚提示用の複数種類の周波数fx及び振幅Axの波形パターンデータDP0が準備されている。これは、情報配信業者の情報配信装置901で指定する触覚情報D1に対応する振動波形パターンデータDcを触覚地図情報モード機能付きの携帯電話機400で再現(構築)するためである。
このように、情報配信業者から触覚地図情報モード機能付きの携帯電話機400へ振動作成指示データDPXを符号化して配信することにより、振動波形パターンデータDcを情報配信業者から触覚地図情報モード機能付きの携帯電話機400へ直接配信する場合に比べて配信情報量を少なくすることができる。なお、記憶手段35には、複数種類の波形パターンデータDP0の他に、当該携帯電話機400から情報配信業者へ情報サービスの提供を受ける旨を要求する際のデータ等が格納される。
この例で受信部21が情報配信装置901から触覚情報D1を受信して復号化処理する場合であって、CPU32は、受信部21によって受信された触覚情報D1に基づいて記憶手段35から波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。
例えば、CPU32は、情報配信装置901から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。CPU32は、更に、振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出す。CPU32は、記憶手段35から読み出した複数種類の波形パターンデータDP0を合成し、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、CPU32からアクチュエータ駆動回路37を通じて圧電アクチュエータ25a〜25dへ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sd等に基づいて入力検出手段45又は表示手段29を振動するようになされる。これにより、入力検出手段45又は表示手段29に触れている情報利用者の指等に触覚を提示できるようになる。
このようにすると、情報配信業者の情報配信装置901から作成指示された触覚提示用の振動波形パターンデータDcを当該触覚地図情報モード機能付きの携帯電話機400のCPU32で作成することができ、しかも、情報配信装置901で触覚提示用の振動波形パターンデータDcを作成し、その振動波形パターンデータDcを含む触覚情報D1を当該携帯電話機400へ配信する場合に比べて、触覚提示用の振動波形パターンデータDcを作成指示するための触覚情報D1のデータ量を軽減することができる。
また、携帯電話機400のCPU32で複数種類の波形パターンデータDP0を組み合わせることによって多種多様の触覚を発生できるようになる。しかも、情報配信業者の情報配信装置901より配信される触覚情報D1の内容の差異によって触覚地図情報モード機能付きの携帯電話機400の個々の触覚発生手段40により発生される触覚の種類を異ならせることができる。
一般に携帯電話機400は、基地局探索機能を備えている。基地局探索機能とは、当該携帯電話機400がパイロット信号(識別信号)を発信し、明瞭な無線通信を行える基地局を探索する機能をいう。この基地局探索機能を利用して、携帯電話機400を所持した情報利用者が当該情報サービスエリア内に立ち入ると、携帯電話機400が情報サービスエリア内に入ったことを振動をもって知らせるようにしてもよい。この場合、携帯電話機400を持つ手、あるいは、携帯電話機400を収めた胸のポケット越しに振動が肌に伝搬するようになされる(第1の触覚提示処理)。
この例で、第1の触覚提示処理を実行してから第2の触覚提示処理に移行してもよい。第2の触覚提示処理によれば、情報利用者が触覚地図情報モードを設定すると、情報配信業者の通信モデム19’は、基地局を通じて情報利用者の携帯電話機400に対して通信処理を実行する。例えば、通信モデム19’は、制御手段15’によって符号化処理された触覚情報D1+地図情報D9を情報利用者の携帯電話機400に配信する。
携帯電話機400の表示手段29には、その情報サービスエリアの地図画像、例えば、渋谷ハチ公前の道路及び商店街を表示する。そして、情報利用者の指30a等が、例えば、「おいしいランチはここ!」のレストラン店の表示領域上を触れると、その位置に指が触れている間、「ビィビィ・・」というような触覚を与えるようになされる(第2の触覚提示処理)。
次に、第9の実施例に係る情報処理方法について説明する。図52は、情報配信装置901における情報処理例を示すフローチャートである。この例で図51に示した第1の情報処理系I(配信側)には、情報配信装置901が配置され、第2の情報処理系II(受信側)には、携帯電話機400が配置される。情報配信装置901と携帯電話機400とは通信手段300を通じて接続される。
携帯電話機400では、予めノーマルモード又は触覚地図情報モードのいずれかの動作モードの設定処理がなされる場合を前提とする。また、携帯電話機400で、地図画像の所定部位への接触を検出したとき、その地図情報D9に対応付けられた触覚情報D1に基づいて情報利用者の指30a等に触覚を提示する場合を例に挙げる。
[情報配信側]
これらを情報処理条件にして、図52に示す配信側のフローチャートのステップR11で情報配信装置901は地図画像取得処理を実行する。このとき、入力手段24’は、画像取得手段3’を操作するための操作データD3を入力したり、モード設定時、触覚地図情報配信モードを設定するように操作される。例えば、情報サービスエリア内を航空撮影して地図情報D9を取得し、相手方に送信しようとする場合に、商店街、映画館、最寄りの交番、レストラン、駅、バス停等について、触覚提示位置を制御手段15’に指示するように操作される。もちろん、地図画像の取得方法は、航空撮影に限られることはなく、既存の地図ソフトウエア資源を利用してもよい。
制御手段15’は、操作データD3に基づいて画像取得手段3’を制御する。例えば、画像取得手段3’は、情報サービスエリア内の道路、橋、線路、建物の画像を取得して地図情報D9を出力する。例えば、航空撮影して得た地図情報D9と、情報配信業者が情報サービスしようとする提供位置を地図情報D9上にプロットし、情報利用者に配信しようとする場合に、情報サービスエリア内の道路、橋、線路、建物の画像に、商店街、映画館、最寄りの交番、レストラン、駅、バス停等を合成して、静止画に係る地図情報D9を取得する。このとき、音声入出力手段54’を動作させて、情報案内者の音声を入力する。
また、記憶手段35’には、情報利用者の携帯電話機400に指示するための触覚情報D1が格納される。触覚情報D1には、振動作成指示データDPXが含まれている。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。これは、受信側の携帯電話機400#2jで周波数fx、振幅Ax及び振動回数Nxに基づいて振動制御信号Sa等を作成するためである。記憶手段35’には、触覚情報D1の他に画像取得手段3’によって取得された、情報サービスエリア内の地図情報D9が格納される。
その後、ステップR12で情報配信装置901は、地図情報D9と触覚提示用の触覚情報D1との対応付け処理を実行する。この対応付け処理では、例えば、制御手段15’が操作データD3に基づいて、情報サービスエリア内の道路、橋、線路、建物にプロットされた、商店街、映画館、最寄りの交番、レストラン、駅、バス停について、各々触覚が異なるような振動作成指示データDPXが得られる触覚情報D1を情報サービスエリア内の地図情報D9等に付加される。
このような振動作成指示データDPXを有する触覚情報D1は、記憶手段35’から読み出される。地図情報D9に付加される触覚情報D1には、振動作成指示データDPXの他に、情報利用者の携帯電話機400を区分するアプリケーション情報等が含まれる。これは、情報利用者の携帯電話機400に正確に触覚情報D1を指示するためである。振動作成指示データDPXには、振動波形パターンデータDcを形成する周波数fx、振幅Ax及び振動回数Nxが含まれる。
そして、ステップR13で情報配信装置901は触覚地図情報の配信要求を待機する。このとき、情報利用者は情報サービスエリア内に足を踏み入れると、すなわち、その無線通信可能な範囲に入ると、当該携帯電話機400では、CPU32が送信部22を制御して情報配信業者の情報配信装置801を呼出し通信回線を接続する。
情報配信装置901では、情報利用者から触覚地図情報の配信要求が有った場合は、ステップR14に移行する。ステップR14で、制御手段15’は、先に対応付けられた触覚情報D1+地図情報D9を通信手段300を通じて、携帯電話機400に符号化して配信する。例えば、制御手段15’は、通信モデム19’を制御して先に接続されている通信回線を通じて情報利用者の携帯電話機400に触覚情報D1+地図情報D9をダウンロードするようになされる。
その後、ステップR15に移行して、制御手段15’は情報配信処理の終了判別する。この際に、制御手段15’は、例えば、情報配信業者が入力手段24’を使用して情報配信処理終了を指示する場合は、情報配信処理を終了する。情報情報配信業者が情報配信処理終了を指示しない場合は、ステップR13に戻って情報配信処理を継続する。これにより、情報利用者に自動的に触覚情報D1+地図情報D9又は触覚情報D1+音声情報AIN’+地図情報D9をダウンロードするようになる。
[情報利用側]
図53は、触覚地図情報モード機能付きの携帯電話機400における情報処理例を示すフローチャートである。なお、携帯電話機400の動作例については、先に説明した図10を参照する。この例では、携帯電話機400を所持した情報利用者が当該情報サービスエリア内に立ち入り、既に、携帯電話機400が情報サービスエリア内に入ったことを振動(第1の触覚提示処理)をもって知らせた(提示)後の処理例について説明する。
これらを情報処理条件にして、情報利用者側では、図53に示すフローチャートのステップX11で、まず、ノーマルモード又は触覚地図情報モードのいずれかの動作モードが設定される。動作モードは、情報利用者(受信側の操作者)により入力検出手段45が操作されてCPU32に設定される。
そして、ステップX12で通信モデム19は、CPU32の制御を受けて、情報利用者の情報配信装置901から触覚情報D1+地図情報D9を受信して復号化処理する。触覚情報D1+地図情報D9はCPU32で分離され、地図情報D9は表示手段29を駆動する表示データD2に変換される。触覚情報D1は、触覚地図情報モードが選択された場合に備えてCPU32にセットされる。
その後、ステップX13に移行して、先に設定された動作モードに基づいて制御を分岐する。触覚地図情報モードが設定された場合は、ステップX14及びX15に移行する。ステップX14では、先に受信した地図情報D9に基づいて地図画像を表示する。例えば、表示手段29は、情報配信装置901から送られてきた地図情報D9に基づく表示データD2により地図画像を表示する。この例で、情報サービスエリアが渋谷駅周辺である場合、渋谷ハチ公前の道路や商店街等が表示される。この渋谷ハチ公前の地図には、「おいしいランチはここ!」のレストラン店が表示される。
これに並行して、ステップX15でCPU32は、表示手段29に表示されている地図画像に対応する触覚の提示要求を受け付ける。このとき、触覚機能付きの入力検出手段45は、地図画像の所定部位への情報利用者の指30a等の接触を検出して、表示手段29に表示された地図画像に対応する触覚の提示要求を受け付けるように操作される。情報利用者は、この地図画像内に表示された、「おいしいランチはここ!」のレストラン店の表示領域上を指30aで触れるようになされる。
触覚機能付きの入力検出手段45によって地図画像に対応する触覚提示要求を受け付けた場合は、ステップX16に移行する。ステップX16でCPU32は、その地図情報D9に対応付けられた触覚情報D1に基づいて情報利用者の指30a等に触覚を提示するように触覚提示制御を実行する。例えば、CPU32は、情報利用者の情報配信装置901から受信したアプリケーション情報及び触覚情報D1をデコード処理して振動作成指示データDPXを取得する。
CPU32は、デコード処理して得た振動作成指示データDPXに基づいて記憶手段35から1又は複数種類の波形パターンデータDP0を読み出し、この波形パターンデータDP0を合成して振動波形パターンデータDcを作成するような制御を実行する。CPU32は、合成後の振動波形パターンデータDcをデジタル・アナログ変換して振動制御信号Sa〜Sd等を作成する。
振動制御信号Sa〜Sd等は、CPU32から触覚発生手段40を構成する圧電アクチュエータ25a〜25dへ供給される。圧電アクチュエータ25a〜25dは、振動制御信号Sa〜Sdに基づいて入力検出手段45又は表示手段29を振動するようになされる。これにより、入力検出手段45又は表示手段29に触れている情報利用者の指30a等に触覚を提示できるようになる。上述の例では、「おいしいランチはここ!」の位置に指30aが触れている間、「ビィビィ・・」というような触覚を与えるようになされる(第2の触覚提示処理)。そして、ステップX18に移行する。
なお、ステップX13でノーマルモードが設定された場合は、ステップX17に移行して触覚提示処理を伴わない地図画像表示処理を実行する。その後、ステップX18に移行してCPU32は、情報処理の終了を判断する。この際の終了判断では、例えば、電源オフ情報を検出してノーマルモード又は触覚地図情報モードに係る情報処理を終了する。電源オフ情報が検出されない場合は、ステップX13に戻って、上述した処理を繰り返すようになされる。
このように、第9の実施例に係る触覚地図情報配信システム9によれば、情報配信業者側の情報配信装置901と、情報利用者側の携帯電話機400とが通信手段300を通じて接続される。携帯電話機400は、情報配信装置901から触覚情報D1+地図情報D9を受信し、当該地図情報D9に基づいて画像を表示すると共に、その画像に対応する触覚の提示要求を受け付ける。携帯電話機400は、触覚の提示要求を受け付けたとき、地図情報D9に対応付けられた触覚情報D1に基づいて情報利用者の指30aに触覚を提示するように触覚発生手段40を制御するようになされる。
従って、情報サービスエリア内の情報利用者に対して地図画像を視るという視覚に加えて、地図画像に対応付けられた触覚を再現性良く提示できるようになる。これにより、情報配信業者で地図画像の所定部位に対応付けた触覚を情報利用者側で体験できるような情報処理システムを構築することができる。このような情報処理システムは既存の有線又は及び無線方式の公衆電話回線網等を利用した触覚地図情報配信システム9に十分応用できる。
しかも、情報配信装置901から情報利用者の携帯電話機400へ振動作成指示データDPXを符号化して送信しているので、振動波形パターンデータDcを情報配信装置901から携帯電話機400へ直接送信する場合に比べて送信情報を少なくすることができる。
この発明は、画像情報+音声情報AIN’に結合された触覚提示用の触覚情報を処理するパーソナルコンピュータや、携帯電話機、デジタルカメラ、カーナビゲーションシステム、デジタル腕時計、情報携帯端末装置、テレビジョン等やこれらを応用した通信システムに適用して極めて好適である。
本発明に係る実施の形態としての情報処理システム1の構成例を示すブロック図である。 (A)及び(B)は、第1の実施例としての情報処理例を示すフローチャートである。 第2の実施例としての情報処理例を示すフローチャートである。 第3の実施例としての情報処理例を示すフローチャートである。 第4の実施例としての触覚テレビ電話システム4の構成例を示す概念図である。 触覚入力機能付きの携帯電話機400の構成例を示す斜視図である。 触覚機能付きの入力装置90の構成例を示す斜視図である。 アクチュエータ25a〜25d、力検出手段55a及び55b等の配置例を示す断面の構成図である。 (A)及び(B)は力検出手段55a等の内部構成例を示す図である。 触覚入力機能付きの携帯電話機400の内部構成例を示すブロック図である。 (A)及び(B)は、触覚A及びBに係る振動パターン例を示す波形図である。 (A)及び(B)は、触覚テレビ電話システム4における発呼側の顔画像の撮影例及びその表示例を示す図である。 正面向き顔画例及びその送信情報例を示す図である。 横向き顔画像例及びその送信情報例を示す図である。 斜め後ろ向き顔画像例及びその送信情報例を示す図である。 (A)及び(B)は、触覚テレビ電話システム4における着呼側の顔画像の表示例及び触覚提示例を示す図である。 (A)及び(B)は、第4の実施例としての情報処理例を示すフローチャートである。 (A)〜(D)は、第4の実施例に係る触覚情報の他の設定例を示す図である。 第5の実施例としての感動触覚付き電話システム5の構成例を示す概念図である。 感動触覚電話システムにおける情報処理例(送信側)を示すフローチャートである。 第5の実施例としての感動触覚電話システムにおける情報処理例(受信側)を示すフローチャートである。 第6の実施例としての触覚インターネットショッピングシステム6の構成例を示す概念図である。 触覚検出グローブ50を含むWWWサーバ601の構成例を示すブロック図である。 (A)及び(B)は、触覚検出グローブ50等の指先部分の構成例及びその拡大例を各々示す断面図である。 ネット端末600の構成例を示すブロック図である。 モニタ66における商品画像の表示例を示す概念図である。 (A)〜(D)は、記憶装置67’、67及び制御ユニット65’、65における情報処理例を示す図である。 第6の実施例に係るWWWサーバ側の処理例(その1)を示すフローチャートである。 第6の実施例に係るWWWサーバ側の処理例(その2)を示すフローチャートである。 触覚ネットショッピングシステム6のネット端末600における情報処理例(その1)を示すフローチャートである。 触覚ネットショッピングシステム6のネット端末600における情報処理例(その2)を示すフローチャートである。 ネット端末600における触覚提示例(その1)を示すフローチャートである。 ネット端末600における触覚提示例(その2)を示すフローチャートである。 ネット端末600における触覚提示例(その3)を示すフローチャートである。 ネット端末600における触覚提示例(その4)を示すフローチャートである。 第7の実施例としての触覚テレビ放送システム7の構成例を示す概念図である。 画像音声触覚モード機能及びテレビチューナ機能付きのパソコン701の構成例を示すブロック図である。 ある触覚クイズ番組におけるクイズ画面の表示例を示す図である。 触覚テレビ放送システム7における情報処理例(送信側)を示すフローチャートである。 触覚テレビ放送システム7における情報処理例(受信側)を示すフローチャートである。 他の触覚テレビ放送システム7’の構成例を示す概念図である。 椅子80におけるアクチュエータ25の取付例を示す斜視図である。 第8の実施例としての触覚ゲーム情報配信システム8の構成例を示す概念図である。 第8の実施例に係る振動パターン、入力情報内容、振動条件及び具体的波形例を示す表図である。 触覚ゲーム情報配信システム8における情報処理例(情報配信側)を示すフローチャートである。 携帯電話機40における振動パターン作成例を示すフローチャートである。 触覚ゲーム機能付きの携帯電話機400における情報処理例(その1)を示すフローチャートである。 携帯電話機400における情報処理例(その2)を示すフローチャートである。 携帯電話機400における情報処理例(その3)を示すフローチャートである。 携帯電話機400における情報処理例(その4)を示すフローチャートである。 第9の実施例としての触覚地図情報配信システム9の構成例を示す概念図である。 情報配信装置901における情報処理例を示すフローチャートである。 触覚地図情報モード機能付きの携帯電話機400における情報処理例を示すフローチャートである。
符号の説明
1・・・情報処理システム、3,3’・・・画像取得手段、4・・・触覚テレビ電話システム(情報処理システム)、5・・・感動触覚電話システム(情報処理システム)、6・・・触覚ネットショッピングシステム(情報処理システム)、7・・・触覚テレビ放送システム(情報処理システム)、8・・・触覚ゲーム情報配信システム(情報処理システム)、9・・・触覚地図情報配信システム(情報処理システム)、10・・・下部筐体、11・・・回転レンジ機構、15,15’・・・制御手段、20・・・上部筐体、21・・・受信部、22・・・送信部、24・・・入力手段、25a〜25d・・・圧電アクチュエータ(振動手段)、29,29’・・・表示手段、32,32’・・・CPU(制御手段)、35,35’・・・記憶手段、50・・・触覚検出グローブ、78・・・送信設備、300・・・通信手段、400,400’,500,500’・・・携帯電話機、600・・・ネット端末(情報処理装置)、601・・・WWWサーバ(情報処理装置)、701・・・パソコン(情報処理装置)、702・・・テレビ受信機(情報処理装置)、801,901・・・情報配信装置(情報処理装置)、#1i(i=1〜n),#2j(j=1〜m)・・・情報処理装置

Claims (20)

  1. 動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する第1の情報処理装置と、
    前記画像情報及び触覚情報を受信し、当該画像情報に基づいて画像を表示すると共に、当該画像に対応する触覚の提示要求を受け付ける第2の情報処理装置と、
    前記第1の情報処理装置と第2の情報処理装置とを接続する通信手段とを備え、
    前記第2の情報処理装置は、
    前記触覚情報に基づいて触覚を発生する触覚発生手段を有し、
    前記画像に対応する触覚の提示要求を受け付けたとき、前記画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように前記触覚発生手段を制御することを特徴とする情報処理システム。
  2. 前記第2の情報処理装置は、
    前記画像の所定部位への接触を検出する触覚機能付きの入力手段を有し、
    前記画像の所定部位への接触を検出したとき、前記画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように前記触覚発生手段を制御することを特徴とする請求項1に記載の情報処理システム。
  3. 前記第1の情報処理装置は、
    前記画像情報及び触覚情報の他に音情報を第2の情報処理装置に送信し、
    前記第2の情報処理装置は、
    前記第1の情報処理装置から受信した画像情報及び触覚情報を処理すると共に、前記音情報を再生出力することを特徴とする請求項1に記載の情報処理システム。
  4. 前記第1の情報処理装置に触覚入力機能が設けられる場合であって、
    当該触覚入力機能を利用して画像の所定部位への接触を検出して触覚情報を入力し、当該触覚情報を第2の情報処理装置に送信し、
    前記第2の情報処理装置は、
    前記第1の情報処理装置から受信した触覚情報に基づいて触覚提示処理することを特徴とする請求項1に記載の情報処理システム。
  5. 前記第1の情報処理装置から第2の情報処理装置へ送信される触覚情報が、触覚提示用の振動パターンデータを作成指示する内容である場合であって、
    前記第2の情報処理装置には、
    前記触覚提示用の複数種類の振動波形パターンを記憶する記憶手段が設けられ、
    前記第2の情報処理装置は、
    前記記憶手段から触覚情報に基づいて振動波形パターンを読み出し、
    前記振動波形パターンを合成して振動パターンデータを作成することを特徴とする請求項1に記載の情報処理システム。
  6. 複数の前記第1又は及び第2の情報処理装置間において触覚情報を送受信して当該第2の情報処理装置で発生させる触覚の種類を決定するようにしたことを特徴とする請求項1に記載の情報処理システム。
  7. 前記通信手段には、
    有線通信手段及び無線通信手段が含まれることを特徴とする請求項1に記載の情報処理システム。
  8. 動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けて送信処理する送信側の情報処理装置に対して通信手段を通じて接続可能な情報処理装置であって、
    触覚発生手段と
    前記送信側の情報処理装置から画像情報及び触覚情報を受信する受信手段と、
    前記受信手段より受信した前記画像情報に基づいて画像を表示する表示手段と、
    前記表示手段に表示された画像に対応する触覚の提示要求を受け付ける入力手段と、
    前記入力手段から触覚提示要求を入力し、当該画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように前記触覚発生手段を制御する制御手段とを備えることを特徴とする情報処理装置。
  9. 前記画像の所定部位への接触を検出する触覚機能付きの入力手段を備え、
    前記制御手段は、
    前記画像の所定部位への接触を検出したとき、前記画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように前記触覚発生手段を制御することを特徴とする請求項8に記載の情報処理装置。
  10. 前記受信手段が前記送信側の情報処理装置から送信されてきた画像情報及び触覚情報の他に音情報を受信する場合であって、
    前記受信手段より受信した前記音情報に基づいて音を再生出力する音再生手段を備えることを特徴とする請求項8に記載の情報処理装置。
  11. 前記送信側の情報処理装置に触覚入力機能が設けられ、当該触覚入力機能を利用して画像の所定部位への接触が検出されて入力された触覚情報を受信する場合であって、
    前記制御手段は、
    前記送信側の情報処理装置から受信した触覚情報に基づいて触覚提示処理することを特徴とする請求項8に記載の情報処理装置。
  12. 前記受信手段が前記送信側の情報処理装置から送信されてきた触覚提示用の振動パターンデータを作成指示する触覚情報を受信する場合であって、
    前記触覚提示用の複数種類の振動波形パターンを記憶する記憶手段が設けられ、
    前記制御手段は、
    前記受信手段によって受信された触覚情報に基づいて前記記憶手段から振動波形パターンを読み出し、
    前記振動波形パターンを合成して振動パターンデータを作成するような制御を実行することを特徴とする請求項8に記載の情報処理装置。
  13. 前記通信手段には、
    有線通信手段及び無線通信手段を含むことを特徴とする請求項8に記載の情報処理装置。
  14. 第1の情報処理系で、動画又は及び静止画を含む画像情報と触覚提示用の触覚情報とを対応付けするステップと、
    対応付けられた前記画像情報及び触覚情報を通信手段を通じて第2の情報処理系に送信するステップと、
    前記第2の情報処理系で、
    前記画像情報及び触覚情報を受信するステップと、
    受信した前記画像情報に基づいて画像を表示するステップと、
    表示された前記画像に対応する触覚の提示要求を受け付けるステップと、
    前記画像に対応する触覚の提示要求を受け付けたとき、前記画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示するように前記触覚提示制御をするステップとを有することを特徴とする情報処理方法。
  15. 前記画像の所定部位への接触を検出し、当該画像の所定部位への接触を検出したとき、前記画像情報に対応付けられた触覚情報に基づいて操作体に触覚を提示することを特徴とする請求項14に記載の情報処理方法。
  16. 前記画像情報及び触覚情報の他に前記第1の情報処理系から第2の情報処理系へ音情報を送信し、
    前記第2の情報処理系は、
    前記第1の情報処理系から受信した画像情報及び触覚情報を処理すると共に、前記音情報を再生出力することを特徴とする請求項14に記載の情報処理方法。
  17. 前記第1の情報処理系にも触覚入力機能が設けられる場合であって、
    当該触覚入力機能を利用して画像の所定部位への接触を検出して触覚情報を入力し、当該触覚情報を第2の情報処理系に送信し、
    前記第2の情報処理系は、
    前記第1の情報処理系から受信した触覚情報に基づいて触覚提示処理することを特徴とする請求項14に記載の情報処理方法。
  18. 前記第2の情報処理系が前記第1の情報処理系から送信されてきた触覚提示用の振動パターンデータを作成指示する触覚情報を受信する場合であって、
    前記第2の情報処理系には、予め触覚提示用の複数種類の振動波形パターンが準備され、
    前記第2の情報処理系は、
    受信された前記触覚情報に基づき振動波形パターンを合成して振動パターンデータを作成することを特徴とする請求項14に記載の情報処理方法。
  19. 複数の前記第1又は及び第2の情報処理系間において触覚情報を送受信して当該第2の情報処理系で発生させる触覚の種類を決定するようにしたことを特徴とする請求項14に記載の情報処理方法。
  20. 前記通信手段には、
    有線通信手段及び無線通信手段を含むことを特徴とする請求項14に記載の情報処理方法。
JP2004351355A 2004-12-03 2004-12-03 情報処理システム、情報処理装置及び情報処理方法 Pending JP2006163579A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004351355A JP2006163579A (ja) 2004-12-03 2004-12-03 情報処理システム、情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351355A JP2006163579A (ja) 2004-12-03 2004-12-03 情報処理システム、情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2006163579A true JP2006163579A (ja) 2006-06-22

Family

ID=36665555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351355A Pending JP2006163579A (ja) 2004-12-03 2004-12-03 情報処理システム、情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP2006163579A (ja)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146649A (ja) * 2006-12-05 2008-06-26 Korea Electronics Telecommun 視触感ディスプレイ装置
JP2008152773A (ja) * 2006-12-18 2008-07-03 Internatl Business Mach Corp <Ibm> ユーザ・エクスペリエンスを向上させるための、肌触り、味または香り、あるいはその全ての、自動システムのビジュアル・インタフェースを用いた一体化
JP2008282125A (ja) * 2007-05-09 2008-11-20 Sony Corp 電子機器
JP2010026710A (ja) * 2008-07-17 2010-02-04 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2010193427A (ja) * 2009-02-16 2010-09-02 Korea Advanced Inst Of Sci Technol 運動感覚フィードバックを利用した相互作用装置及びその作動方法
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2011508646A (ja) * 2008-01-04 2011-03-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザに情報を送信するためのオブジェクト、方法及びシステム
JP2012080533A (ja) * 2010-09-30 2012-04-19 Immersion Corp 双方向性コンテンツの触覚的に強化された双方向性
JP2012137888A (ja) * 2010-12-24 2012-07-19 Kyocera Corp 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法
JP2012181833A (ja) * 2011-02-10 2012-09-20 Kyocera Corp 電子機器及び電子機器の制御方法
US8292711B2 (en) 2006-10-30 2012-10-23 Konami Digital Entertainment Co., Ltd. Moving picture processing device and program
JP2012226480A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
JP2012226482A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 携帯情報端末、触覚サーバ、触覚サービスシステム、及び通信方法
JP2012230690A (ja) * 2006-04-06 2012-11-22 Immersion Corp 触覚効果強化のためのシステムおよび方法
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
JP2013531323A (ja) * 2010-07-23 2013-08-01 サムスン エレクトロニクス カンパニー リミテッド リモートユーザーインターフェースシステムにおけるリモートユーザーインターフェースデータ送受信装置及び方法
JP2014028267A (ja) * 2006-09-13 2014-02-13 Immersion Corp カジノゲーム用のハプティクスのためのシステム及び方法
JP2014086093A (ja) * 2012-10-26 2014-05-12 Immersion Corp ストリームに依存しない音をハプティック効果に変換するシステム
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体
JPWO2012147346A1 (ja) * 2011-04-26 2014-07-28 京セラ株式会社 通信機器および通信システム
KR101468250B1 (ko) * 2007-05-25 2014-12-04 임머숀 코퍼레이션 최종 사용자 장치 상의 햅틱 효과 커스터마이징
JP2014239430A (ja) * 2013-05-24 2014-12-18 イマージョン コーポレーションImmersion Corporation 触覚データを符号化及びストリーミングする方法及びシステム
JPWO2013061605A1 (ja) * 2011-10-27 2015-04-02 京セラ株式会社 触感呈示装置
JP2015139059A (ja) * 2014-01-21 2015-07-30 日本放送協会 放送通信連携触覚提示システム、サービスサーバおよびプログラム、並びに、携帯端末
WO2015115447A1 (ja) * 2014-01-30 2015-08-06 京セラドキュメントソリューションズ株式会社 タッチパネル装置及びタッチパネル制御方法
JP2015167758A (ja) * 2014-03-07 2015-09-28 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP2015536511A (ja) * 2012-11-20 2015-12-21 イマージョン コーポレーションImmersion Corporation プログラム可能な表面テクスチャによってモードまたは状態認識を提供するシステムおよび方法
JP2016041277A (ja) * 2015-11-13 2016-03-31 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
JP2016202486A (ja) * 2015-04-21 2016-12-08 任天堂株式会社 振動信号生成プログラム、振動信号生成システム、振動信号生成装置、振動信号生成方法、およびデータ出力プログラム
JPWO2015016210A1 (ja) * 2013-08-01 2017-03-02 株式会社ニコン 電子機器、および電子機器の制御プログラム
WO2017061178A1 (ja) * 2015-10-05 2017-04-13 アルプス電気株式会社 触覚再現装置
JP2018026142A (ja) * 2008-07-15 2018-02-15 イマージョン コーポレーションImmersion Corporation 触覚メッセージを送信するためのシステム及び方法
JP2018032412A (ja) * 2012-10-31 2018-03-01 イマージョン コーポレーションImmersion Corporation 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置
JPWO2017068925A1 (ja) * 2015-10-20 2018-08-09 ソニー株式会社 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
JP2019063547A (ja) * 2018-11-30 2019-04-25 任天堂株式会社 データ出力プログラム、データ出力装置、およびデータ出力方法
JP2019079555A (ja) * 2009-03-12 2019-05-23 イマージョン コーポレーションImmersion Corporation グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
JP2019160035A (ja) * 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム
JP2019160036A (ja) * 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム
JP2019168864A (ja) * 2018-03-22 2019-10-03 東京瓦斯株式会社 販売促進システム
JP2019219785A (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US10564723B2 (en) 2015-01-26 2020-02-18 Fujitsu Limited Drive controlling apparatus, electronic device, computer-readable recording medium, and drive controlling method
WO2020158596A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 復号装置、復号方法、及びプログラム
US10867488B2 (en) 2016-09-09 2020-12-15 Sony Corporation Terminal apparatus, server, and information processing system
WO2022168547A1 (ja) * 2021-02-08 2022-08-11 ソニーグループ株式会社 触覚刺激を与える制御装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021820A (ja) * 2002-06-19 2004-01-22 Seiko Epson Corp 画像・触覚情報入力装置、画像・触覚情報入力方法および画像・触覚情報入力プログラム
JP2004094389A (ja) * 2002-08-29 2004-03-25 Sony Corp 入出力装置および入出力装置を有する電子機器

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021820A (ja) * 2002-06-19 2004-01-22 Seiko Epson Corp 画像・触覚情報入力装置、画像・触覚情報入力方法および画像・触覚情報入力プログラム
JP2004094389A (ja) * 2002-08-29 2004-03-25 Sony Corp 入出力装置および入出力装置を有する電子機器

Cited By (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012230690A (ja) * 2006-04-06 2012-11-22 Immersion Corp 触覚効果強化のためのシステムおよび方法
JP2014028267A (ja) * 2006-09-13 2014-02-13 Immersion Corp カジノゲーム用のハプティクスのためのシステム及び方法
JP2015180264A (ja) * 2006-09-13 2015-10-15 イマージョン コーポレーションImmersion Corporation カジノゲーム用のハプティクスのためのシステム及び方法
US8292711B2 (en) 2006-10-30 2012-10-23 Konami Digital Entertainment Co., Ltd. Moving picture processing device and program
US8212783B2 (en) 2006-12-05 2012-07-03 Electronics And Telecommunications Research Institute Tactile and visual display device
JP2008146649A (ja) * 2006-12-05 2008-06-26 Korea Electronics Telecommun 視触感ディスプレイ装置
JP2014179126A (ja) * 2006-12-18 2014-09-25 Toshiba Global Commerce Solutions Holdings Corp インタフェース表示装置および自動小売システム
JP2013020632A (ja) * 2006-12-18 2013-01-31 Toshiba Global Commerce Solutions Holdings Corp インタフェース表示装置および自動小売システム
JP2008152773A (ja) * 2006-12-18 2008-07-03 Internatl Business Mach Corp <Ibm> ユーザ・エクスペリエンスを向上させるための、肌触り、味または香り、あるいはその全ての、自動システムのビジュアル・インタフェースを用いた一体化
JP2008282125A (ja) * 2007-05-09 2008-11-20 Sony Corp 電子機器
KR101468250B1 (ko) * 2007-05-25 2014-12-04 임머숀 코퍼레이션 최종 사용자 장치 상의 햅틱 효과 커스터마이징
US9990038B2 (en) 2007-05-25 2018-06-05 Immersion Corporation Customizing haptic effects on an end user device
JP2011508646A (ja) * 2008-01-04 2011-03-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザに情報を送信するためのオブジェクト、方法及びシステム
US10416775B2 (en) 2008-07-15 2019-09-17 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
US10203756B2 (en) 2008-07-15 2019-02-12 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
US10248203B2 (en) 2008-07-15 2019-04-02 Immersion Corporation Systems and methods for physics-based tactile messaging
JP2018026142A (ja) * 2008-07-15 2018-02-15 イマージョン コーポレーションImmersion Corporation 触覚メッセージを送信するためのシステム及び方法
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP2010026710A (ja) * 2008-07-17 2010-02-04 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US9411503B2 (en) 2008-07-17 2016-08-09 Sony Corporation Information processing device, information processing method, and information processing program
JP2010193427A (ja) * 2009-02-16 2010-09-02 Korea Advanced Inst Of Sci Technol 運動感覚フィードバックを利用した相互作用装置及びその作動方法
JP2019079555A (ja) * 2009-03-12 2019-05-23 イマージョン コーポレーションImmersion Corporation グラフィカルユーザインターフェース装置においてテクスチャを用いるためのシステム及び方法
JP2011000167A (ja) * 2009-06-16 2011-01-06 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
JP2015181035A (ja) * 2010-04-23 2015-10-15 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法
US9678569B2 (en) 2010-04-23 2017-06-13 Immersion Corporation Systems and methods for providing haptic effects
US10372217B2 (en) 2010-04-23 2019-08-06 Immersion Corporation Systems and methods for providing haptic effects
JP2016139418A (ja) * 2010-04-23 2016-08-04 イマージョン コーポレーションImmersion Corporation 触覚効果を与えるシステム及び方法
JP2013528855A (ja) * 2010-04-23 2013-07-11 イマージョン コーポレイション 触覚効果を与えるシステム及び方法
JP2013531323A (ja) * 2010-07-23 2013-08-01 サムスン エレクトロニクス カンパニー リミテッド リモートユーザーインターフェースシステムにおけるリモートユーザーインターフェースデータ送受信装置及び方法
US10073598B2 (en) 2010-09-30 2018-09-11 Immersion Corporation Haptically enhanced interactivity with interactive content
US10248298B2 (en) 2010-09-30 2019-04-02 Immersion Corporation Haptically enhanced interactivity with interactive content
JP2012080533A (ja) * 2010-09-30 2012-04-19 Immersion Corp 双方向性コンテンツの触覚的に強化された双方向性
US10664143B2 (en) 2010-09-30 2020-05-26 Immersion Corporation Haptically enhanced interactivity with interactive content
JP2017111833A (ja) * 2010-09-30 2017-06-22 イマージョン コーポレーションImmersion Corporation 双方向性コンテンツの触覚的に強化された双方向性
US9727217B2 (en) 2010-09-30 2017-08-08 Immersion Corporation Haptically enhanced interactivity with interactive content
JP2012137888A (ja) * 2010-12-24 2012-07-19 Kyocera Corp 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法
US9542000B2 (en) 2011-02-10 2017-01-10 Kyocera Corporation Electronic device and control method for electronic device
JP2012181833A (ja) * 2011-02-10 2012-09-20 Kyocera Corp 電子機器及び電子機器の制御方法
JP2012226482A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 携帯情報端末、触覚サーバ、触覚サービスシステム、及び通信方法
JP2012226480A (ja) * 2011-04-18 2012-11-15 Kyocera Corp 通信端末、サーバ、触覚フィードバック生成方法および通信システム
US9256312B2 (en) 2011-04-26 2016-02-09 Kyocera Corporation Communication device and communication system
JP5689529B2 (ja) * 2011-04-26 2015-03-25 京セラ株式会社 通信機器および通信システム
JPWO2012147346A1 (ja) * 2011-04-26 2014-07-28 京セラ株式会社 通信機器および通信システム
JPWO2013061605A1 (ja) * 2011-10-27 2015-04-02 京セラ株式会社 触感呈示装置
JP2014086093A (ja) * 2012-10-26 2014-05-12 Immersion Corp ストリームに依存しない音をハプティック効果に変換するシステム
CN103793048B (zh) * 2012-10-26 2018-06-26 意美森公司 独立于流的声音到触觉效应转换系统
CN103793048A (zh) * 2012-10-26 2014-05-14 英默森公司 独立于流的声音到触觉效应转换系统
US10591994B2 (en) 2012-10-31 2020-03-17 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
JP2018032412A (ja) * 2012-10-31 2018-03-01 イマージョン コーポレーションImmersion Corporation 触覚効果を用いてユーザインタフェース上で表面フィーチャをシミュレートする方法及び装置
JP2015536511A (ja) * 2012-11-20 2015-12-21 イマージョン コーポレーションImmersion Corporation プログラム可能な表面テクスチャによってモードまたは状態認識を提供するシステムおよび方法
WO2014084374A1 (ja) * 2012-11-30 2014-06-05 日本電気株式会社 通信システム、通信方法、通信装置、プログラム、及び記録媒体
JP2014239430A (ja) * 2013-05-24 2014-12-18 イマージョン コーポレーションImmersion Corporation 触覚データを符号化及びストリーミングする方法及びシステム
JP2019024228A (ja) * 2013-05-24 2019-02-14 イマージョン コーポレーションImmersion Corporation 触覚データを符号化及びストリーミングする方法及びシステム
US10542325B2 (en) 2013-05-24 2020-01-21 Immersion Corporation Method and system for haptic data encoding and streaming using a multiplexed data stream
US10085069B2 (en) 2013-05-24 2018-09-25 Immersion Corporation Method and system for haptic data encoding and streaming using a multiplexed data stream
JPWO2015016210A1 (ja) * 2013-08-01 2017-03-02 株式会社ニコン 電子機器、および電子機器の制御プログラム
JP2015139059A (ja) * 2014-01-21 2015-07-30 日本放送協会 放送通信連携触覚提示システム、サービスサーバおよびプログラム、並びに、携帯端末
JP6062573B2 (ja) * 2014-01-30 2017-01-18 京セラドキュメントソリューションズ株式会社 タッチパネル装置及びタッチパネル制御方法
JPWO2015115447A1 (ja) * 2014-01-30 2017-03-23 京セラドキュメントソリューションズ株式会社 タッチパネル装置及びタッチパネル制御方法
WO2015115447A1 (ja) * 2014-01-30 2015-08-06 京セラドキュメントソリューションズ株式会社 タッチパネル装置及びタッチパネル制御方法
US9690422B2 (en) 2014-01-30 2017-06-27 Kyocera Document Solutions Inc. Touch panel apparatus and touch panel control method
JP2015167758A (ja) * 2014-03-07 2015-09-28 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
US10564723B2 (en) 2015-01-26 2020-02-18 Fujitsu Limited Drive controlling apparatus, electronic device, computer-readable recording medium, and drive controlling method
JP2016202486A (ja) * 2015-04-21 2016-12-08 任天堂株式会社 振動信号生成プログラム、振動信号生成システム、振動信号生成装置、振動信号生成方法、およびデータ出力プログラム
JPWO2017061178A1 (ja) * 2015-10-05 2018-06-28 アルプス電気株式会社 触覚再現装置
WO2017061178A1 (ja) * 2015-10-05 2017-04-13 アルプス電気株式会社 触覚再現装置
JPWO2017068925A1 (ja) * 2015-10-20 2018-08-09 ソニー株式会社 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
JP2016041277A (ja) * 2015-11-13 2016-03-31 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
US10867488B2 (en) 2016-09-09 2020-12-15 Sony Corporation Terminal apparatus, server, and information processing system
JP2019160036A (ja) * 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム
JP2019160035A (ja) * 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム
JP2019168864A (ja) * 2018-03-22 2019-10-03 東京瓦斯株式会社 販売促進システム
WO2019244625A1 (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2019219785A (ja) * 2018-06-18 2019-12-26 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US11462084B2 (en) 2018-06-18 2022-10-04 Sony Corporation Information processing apparatus, information processing method, and program
JP7155643B2 (ja) 2018-06-18 2022-10-19 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2019063547A (ja) * 2018-11-30 2019-04-25 任天堂株式会社 データ出力プログラム、データ出力装置、およびデータ出力方法
WO2020158596A1 (ja) * 2019-02-01 2020-08-06 ソニー株式会社 復号装置、復号方法、及びプログラム
US11947723B2 (en) 2019-02-01 2024-04-02 Sony Group Corporation Decoding device, decoding method, and program
WO2022168547A1 (ja) * 2021-02-08 2022-08-11 ソニーグループ株式会社 触覚刺激を与える制御装置

Similar Documents

Publication Publication Date Title
JP2006163579A (ja) 情報処理システム、情報処理装置及び情報処理方法
US6275258B1 (en) Voice responsive image tracking system
CN113965807B (zh) 消息推送方法、装置、终端、服务器及存储介质
KR20180112599A (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
WO2009106916A1 (en) Head tracking for enhanced 3d experience using face detection
CN102270043A (zh) 协调设备交互来增强用户体验
CN112312226B (zh) 连麦方法、系统、装置、电子设备及存储介质
CN105430185B (zh) 信息提示的方法、装置和设备
EP1542466A1 (en) Sign language video presentation device, sign language video i/o device, and sign language interpretation system
CN111445901B (zh) 音频数据获取方法、装置、电子设备及存储介质
US20060125914A1 (en) Video input for conversation with sing language, video i/o device for conversation with sign language, and sign language interpretation system
JP4992591B2 (ja) 通信システム及び通信端末
KR20170111450A (ko) 보청장치, 휴대장치 및 그 제어방법
CN111045945B (zh) 模拟直播的方法、装置、终端、存储介质及程序产品
CN110856152A (zh) 播放音频数据的方法、装置、电子设备及介质
CN108134736B (zh) 建群方法及装置
CN114845129B (zh) 虚拟空间中的互动方法、装置、终端以及存储介质
CN110798327B (zh) 消息处理方法、设备及存储介质
CN110827830B (zh) 基于语音数据的声纹识别方法、装置、终端及存储介质
CN109460171A (zh) 信息交互方法、装置、终端及存储介质
JPH04238475A (ja) ハンドセット形テレビ装置とそれを用いたテレビ電話装置
CN110708582B (zh) 同步播放的方法、装置、电子设备及介质
CN112770149B (zh) 视频处理方法、装置、终端及存储介质
CN114245148A (zh) 直播互动方法、装置、终端、服务器及存储介质
JP2022022871A (ja) 処理装置および没入度導出方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070627

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091104

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100518