JP2012022670A - 人−マシンインタラクションシステム - Google Patents

人−マシンインタラクションシステム Download PDF

Info

Publication number
JP2012022670A
JP2012022670A JP2011090864A JP2011090864A JP2012022670A JP 2012022670 A JP2012022670 A JP 2012022670A JP 2011090864 A JP2011090864 A JP 2011090864A JP 2011090864 A JP2011090864 A JP 2011090864A JP 2012022670 A JP2012022670 A JP 2012022670A
Authority
JP
Japan
Prior art keywords
machine interaction
interaction system
human
interactive
mechanical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011090864A
Other languages
English (en)
Inventor
Hiroshi Yorihiko
頼彦宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Compal Communications Inc
Original Assignee
Compal Communications Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Compal Communications Inc filed Critical Compal Communications Inc
Publication of JP2012022670A publication Critical patent/JP2012022670A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

【課題】スクリプトを実行するための人-マシンインタラクションシステムを提供する。
【解決手段】人-マシンインタラクションシステム2aは、ディスプレイデバイス22、メカニカルデバイス26、検出モジュール及び処理モジュールを含む。ディスプレイデバイスは、インタラクティブゾーン23内にインタラクティブ像を示すために用いられる。メカニカルデバイスは、インタラクティブゾーン内で移動可能である。検出モジュールは、インタラクティブゾーン内の入力アクションを受け取るために用いられる。処理モジュールは、入力アクション及びスクリプトに従って、メカニカルデバイスの動作を制御し、かつディスプレイデバイスを制御してインタラクティブ像をアップデートする。人-マシンインタラクションシステムによって、物理的及びバーチャルインタラクティブエレメントを一体化し、ユーザーに新たな操作モードを提供することができる。
【選択図】図2

Description

本発明は、人-マシンインタラクションシステムに関し、より詳しくは、物理的及びバーチャルインタラクティブエレメントを統合する人-マシンインタラクションシステムに関する。
科学技術がますます発展するにつれて、インテリジェントなおもちゃが現在急速に人気を得てきている。例えば、ユーザーと相互作用するインタラクティブ人形(例:ロボット又はメカニカル動物)は、種々の年齢群の間で最も人気があるおもちゃの一つになった。
インタラクティブ人形は、ユーザーとコミュニケーションを取ったり、相互作用をしたりすることができる。例えば、インタラクティブ人形を抱きしめるか又は軽くたたくことによって、インタラクティブ人形は、ユーザーと直接相互作用することができる。抱きしめたり軽くたたいたりするアクションをインタラクティブ人形のセンサーが検出すると、インタラクティブ人形は、特定のアクション又は特定の音で応答するであろう。
しかしながら、インタラクティブ人形と遊ぶことのインタラクティブな方法は通常単調であるので、ユーザーは、通常、長時間経つと退屈に感じるかも知れない。
スクリプトを実行するための人-マシンインタラクションシステムを提供することが本発明の目的である。このシステムでは、インタラクティブ像がディスプレイ技術によって生成され、且つインタラクティブ人形と一体化される。その結果、インタラクティブ像が、種々のシナリオに合致してユーザーの要求を満たすようにデザインされる。
物理的なメカニカルデバイスとバーチャルなインタラクティブ像を統合して、新たな操作モードを提供し、インタラクティブ効果を高めることができる人-マシンインタラクションシステムを提供することが本発明の別の目的である。
本発明の一観点によれば、スクリプトを実行するための人-マシンインタラクションシステムが提供される。人-マシンインタラクションシステムは、ディスプレイデバイス、メカニカルデバイス、検出モジュール及び処理モジュールを含む。ディスプレイデバイスは、インタラクティブゾーン内にインタラクティブ像を示すために用いられる。メカニカルデバイスは、インタラクティブゾーン内で移動可能である。検出モジュールは、インタラクティブゾーン内の入力アクションを受け取るために用いられる。処理モジュールは、ディスプレイデバイス、検出モジュール及びメカニカルデバイスと電気的に接続されている。処理モジュールは、入力アクション及びスクリプトに従って、メカニカルデバイスの動作を制御し、かつディスプレイデバイスを制御してインタラクティブ像をアップデートする。
本発明の上記の内容は、次の詳細な説明及び添付図面を参照した後に、当業者により容易に明らかになるであろう。
本発明の第一実施形態による人-マシンインタラクションシステムを示す概略機能ブロック図である。
本発明の第1実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。
本発明の第二実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。
本発明の第三実施形態による人-マシンインタラクションシステムを示す概略機能ブロック図である。
本発明の第三実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。
次の実施形態を参照して、より具体的に本発明の説明を行う。この発明の好ましい実施形態の次の説明は、例示と説明の目的のためにのみここで提示されるということに注意すべきである。本発明が開示された形態そのものによって網羅されているとか、そのような形態に限定されるということは意図していない。
図1は、本発明の第一実施形態による人-マシンインタラクションシステムを示す概略機能ブロック図である。図2は、本発明の第1実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。図1及び2に示すように、人-マシンインタラクションシステム2aは、処理モジュール20、ディスプレイデバイス22、検出モジュール24、メカニカルデバイス26及び駆動機構28を備える。
処理モジュール20は、ディスプレイデバイス22、検出モジュール24、メカニカルデバイス26及び駆動機構28と電気的に接続されている。人-マシンインタラクションシステム2aは、所定のインタラクティブゾーン23を有する。ユーザーの手がインタラクティブゾーン23内に配置されている場合、ユーザーは、検出モジュール24を通じてメカニカルデバイス26と相互作用可能である。さらに、人-マシンインタラクションシステム2aは、スクリプトを実行するように構成されている。例えば、スクリプトは、ゲームのプログラムコード、インタラクティブ電子ブック又は他のアプリケーションプログラムを含む。
この実施形態では、ディスプレイデバイス22は、フラットパネルディスプレイである。ディスプレイデバイス22は、処理モジュール20と電気的に接続されている。ディスプレイデバイス22の表示面は、インタラクティブゾーン23のボーダーに隣接し、インタラクティブゾーン23上に二次元インタラクティブ像36を表示する。いくつかの他の実施形態では、ディスプレイデバイス22は、別の位置に配置された投影機であり、インタラクティブゾーン23上にインタラクティブ像を投影する。いくつかの他の実施形態では、ディスプレイデバイス22は、インタラクティブゾーン23の範囲内に立体映像効果を生じさせることができるディスプレイデバイスである。いくつかの他の実施形態では、ディスプレイデバイス22は、立体像を直接表示することができるホログラフィックディスプレイデバイスである。
メカニカルデバイス26は、インタラクティブゾーン23内で移動可能である。つまり、メカニカルデバイス26は、特定の位置に固定されているというよりもむしろインタラクティブゾーン23内で移動可能である。メカニカルデバイス26は、駆動機構28によって駆動されて、インタラクティブゾーン23内で移動する。駆動機構28は、処理モジュール20と電気的に接続されている。さらに、駆動機構28は、伸縮可能なプッシュロッド281及びシャフト282を備える。シャフト282は、インタラクティブゾーン23の縁に回転可能に固定されている。伸縮可能なプッシュロッド281の第一端は、シャフト282と接続されている。伸縮可能なプッシュロッド281の第二端は、メカニカルデバイス26と結合されている。シャフト282の回転アクション及び伸縮可能なプッシュロッド281の直線移動アクションに応答して、メカニカルデバイス26は、インタラクティブゾーン23の特定の位置へ移動可能である。
さらに、メカニカルデバイス26の形状は、実際的要求に従って変更可能である。メカニカルデバイス26の形状に従って、メカニカルコンポーネントを変更する。例えば、図2に示すように、メカニカルデバイス26は、ロボットである。ロボットは、種々のアクションをシミュレートするためのいくつかのメカニカルコンポーネントを有する。いくつかの実施形態では、メカニカルデバイス26は、別の形状(例:動物又は自動車)を有する。さらに、メカニカルデバイス26は、駆動機構28の内蔵回路を通じて処理モジュール20と電気的に接続されており、処理モジュール20からコマンドを受け取る。
検出モジュール24は、インタラクティブゾーン23内でユーザーの入力アクションを受け取るように構成されている。処理モジュール20は、入力アクション及びスクリプトに従って、メカニカルデバイス26の動作を制御し、かつディスプレイデバイス22上に示されたインタラクティブ像36をアップデートする。この実施形態では、検出モジュール24は、ディスプレイデバイス22上に設置されたタッチパネル241である。タッチパネル241上でのユーザーの入力アクション、例えばディスプレイデバイス22上に示されたインタラクティブ像36をクリック及びドラッグするアクションに応答して、対応するタッチング信号がタッチパネル241によって受け取られ、次に処理モジュール20へ送信される。
次に、タッチング信号は、処理モジュール20によって解析される。タッチング信号及びスクリプトに従って、人-マシンインタラクションシステム2aの次のアクションが処理モジュール20によって決定される。例えば、処理モジュール20は、駆動機構28を制御してインタラクティブゾーン23内でメカニカルデバイス26を移動させたり、メカニカルデバイス26の移動を直接制御したり、又はディスプレイデバイス22を制御してインタラクティブ像36をアップデートすることができる。
図3は、本発明の第二実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。人-マシンインタラクションシステム2bでは、駆動機構28は、トラック283及び伸縮可能なプッシュロッド281を備える。伸縮可能なプッシュロッド281は、トラック283上に設置され、トラック283に沿って移動可能である。さらに、伸縮可能なプッシュロッド281は、トラック283に垂直な方向に伸縮させることができる。伸縮可能なプッシュロッド281の第一端は、トラック283と接続されている。伸縮可能なプッシュロッド281の第二端は、メカニカルデバイス26と結合されている。これによって、メカニカルデバイス26は、駆動機構28によってインタラクティブゾーン23の特定の位置へ移動可能である。
例えば、人-マシンインタラクションシステム2bは、球技又はヒッティングゲームを実行するために利用可能である。この実施形態では、メカニカルデバイス26は、バットを握るロボットである。人-マシンインタラクションシステム2bの動作の間、ユーザーの指は、ディスプレイデバイス22を覆うタッチパネル241に接触可能であり、インタラクティブ像36上でのユーザーのジェスチャーは、インタラクティブ像36のモーションを制御するために行われる。ユーザーのジェスチャーがタッチパネル241によって検出された後、タッチパネル241は、タッチング信号を処理モジュール20へ発行する。次に、タッチング信号は、処理モジュール20によって解析される。処理モジュール20は、ユーザーのジェスチャー及びスクリプトに従って、メカニカルデバイス26の動作を制御し、かつディスプレイデバイス22を制御してインタラクティブ像36をアップデートする。
図4は、本発明の第三実施形態による人-マシンインタラクションシステムを示す概略機能ブロック図である。図5は、本発明の第三実施形態による人-マシンインタラクションシステムの応用例を概略的に示す。図4及び5に示すように、人-マシンインタラクションシステム2cは、処理モジュール20、ディスプレイデバイス22、検出モジュール24、メカニカルデバイス26、第一無線伝送ユニット30及び第二無線伝送ユニット32を備える。
第1無線伝送ユニット30と第二無線伝送ユニット32は、互いに通信して、無線伝送技術によってデータを送受信する。この実施形態では、第1無線伝送ユニット30は、ディスプレイデバイス22上に配置され、処理モジュール20と電気的に接続されているが、これに限定されない。第二無線伝送ユニット32は、メカニカルデバイス26上に配置される。
検出モジュール24は、タッチパネル241、カメラ242及びタッチ検出ユニット243を備える。タッチパネル241の機能は、上記の実施形態のものに類似しており、ここでは冗長に説明を行わない。カメラ242は、メカニカルデバイス26及びユーザーのジェスチャーを撮影するために用いられ、これによってデジタル像を取得する。デジタル像は、処理モジュール20へ送信される。その結果、デジタル像に含まれるユーザーのジェスチャーは、処理ユニット20によって解析される。
タッチ検出ユニット243は、メカニカルデバイス26上に配置され、第二無線伝送ユニット32と電気的に接続されている。さらに、タッチ検出ユニット243は、ユーザーのタッチングアクションを検出するために用いられる。タッチ検出ユニット243上でのタッチングアクションに応答して、タッチ検出ユニット243は、検出信号を発行する。検出信号は、第1無線伝送ユニット30及び第二無線伝送ユニット32を通じて処理モジュール20へ送信される。
メカニカルデバイス26は、可動ユニット29を備える。この実施形態では、可動ユニット29は、二足歩行システムである。別の実施形態では、可動ユニット29は、車輪移動システム又はキャタピラー歩行システムである。さらに、タッチ検出ユニット243及び第二無線伝送ユニット32は、メカニカルデバイス26上に配置される。メカニカルデバイス26は、タッチ検出ユニット243及び可動ユニット29と電気的に接続されている。
処理モジュール20は、ディスプレイデバイス22、タッチパネル241、カメラ242及び第1無線伝送ユニット30と電気的に接続されている。処理モジュール20は、スクリプト、ユーザーのジェスチャー及びユーザーのタッチングアクションに従って、メカニカルデバイス26の動作を制御し、かつディスプレイデバイス22を制御してインタラクティブ像36をアップデートするであろう。言い換えると、可動ユニット29は、第1無線伝送ユニット30及び第二無線伝送ユニット32を通じて処理モジュール20によって制御され、これによって、メカニカルデバイス26がインタラクティブゾーン内で移動する。
上記説明から、人-マシンインタラクションシステムが物理的なメカニカルデバイスとバーチャルなインタラクティブ像を統合するので、新たな操作モードが提供可能になり、インタラクティブ効果が高められる。
本発明は、現在最も実用的で最も好ましい実施形態であると考えられるものの観点で説明を行ったが、本発明は、開示された実施形態に限定される必要がないことは理解されるべきである。反対に、本発明は、付属の請求項の精神と範囲内に含まれる種々の修正及び類似の構成をカバーすることを意図している。付属の請求項は、全てのこのような修正と類似の構成を包含するように最も広い解釈が与えられるべきである。

Claims (11)

  1. スクリプトを実行するための人-マシンインタラクションシステムであって、
    前記人-マシンインタラクションシステムは、
    インタラクティブゾーン内にインタラクティブ像を示すためのディスプレイデバイスと、
    前記インタラクティブゾーン内で移動可能であるメカニカルデバイスと、
    前記インタラクティブゾーン内の入力アクションを受け取るための検出モジュールと、
    前記ディスプレイデバイス、前記検出モジュール及び前記メカニカルデバイスと電気的に接続されている処理モジュールとを備え、
    前記処理モジュールは、前記入力アクション及び前記スクリプトに従って、前記メカニカルデバイスの動作を制御し、かつ前記ディスプレイデバイスを制御して前記インタラクティブ像をアップデートする、システム。
  2. 請求項1に記載の人-マシンインタラクションシステムであって、前記検出モジュールは、前記ディスプレイデバイス上に配置されたタッチパネルを備える、システム。
  3. 請求項1に記載の人-マシンインタラクションシステムであって、
    前記処理モジュールは、前記検出モジュールによって検出されるユーザーのジェスチャー及び前記スクリプトに従って、前記メカニカルデバイスの動作を制御し、かつ前記ディスプレイデバイスを制御して前記インタラクティブ像をアップデートする、システム。
  4. 請求項1に記載の人-マシンインタラクションシステムであって、
    前記検出モジュールは、カメラを備える、システム。
  5. 請求項4に記載の人-マシンインタラクションシステムであって、
    前記処理モジュールは、前記検出モジュールによって検出されるユーザーのジェスチャー及び前記スクリプトに従って、前記メカニカルデバイスの動作を制御し、かつ前記ディスプレイデバイスを制御して前記インタラクティブ像をアップデートする、システム。
  6. 請求項1に記載の人-マシンインタラクションシステムであって、
    前記検出モジュールは、タッチ検出ユニットを備え、前記タッチ検出ユニットは、ユーザーのタッチングアクションを検出するために前記メカニカルデバイス上に配置され、
    前記処理モジュールは、前記タッチングアクション及び前記スクリプトに従って、前記メカニカルデバイスの動作を制御する、システム。
  7. 請求項1に記載の人-マシンインタラクションシステムであって、
    前記処理モジュールと電気的に接続されている駆動機構をさらに備え、前記駆動機構は、伸縮可能なプッシュロッドを備え、前記伸縮可能なプッシュロッドの端は、前記メカニカルデバイスと接続されており、
    前記処理モジュールは、前記入力アクション及び前記スクリプトに従って、前記駆動機構を制御して、前記メカニカルデバイスを前記インタラクティブゾーンの特定の位置へ移動させる、システム。
  8. 請求項1に記載の人-マシンインタラクションシステムであって、前記ディスプレイデバイスの表示面は、前記インタラクティブゾーンのボーダーに隣接し、前記インタラクティブゾーン上に二次元又は立体的に前記インタラクティブ像を示す、システム。
  9. 請求項1に記載の人-マシンインタラクションシステムであって、前記メカニカルデバイスは、可動ユニットをさらに備え、前記可動ユニットは、前記処理モジュールの制御下で動かされる、システム。
  10. 請求項9に記載の人-マシンインタラクションシステムであって、
    前記処理モジュールと電気的に接続されている第一無線伝送ユニットと、
    前記メカニカルデバイス上に配置され且つ前記可動ユニットに電気的に接続されている第二無線伝送ユニットをさらに備え、
    前記可動ユニットは、前記第一無線伝送ユニット及び前記第二無線伝送ユニットを通じて前記処理モジュールによって制御される、システム。
  11. 請求項1に記載の人-マシンインタラクションシステムであって、前記スクリプトは、ゲームのプログラムコード、インタラクティブ電子ブック又は他のアプリケーションプログラムを含む、システム。
JP2011090864A 2010-07-16 2011-04-15 人−マシンインタラクションシステム Pending JP2012022670A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2010102336767A CN102335510B (zh) 2010-07-16 2010-07-16 人机互动系统
CN201010233676.7 2010-07-16

Publications (1)

Publication Number Publication Date
JP2012022670A true JP2012022670A (ja) 2012-02-02

Family

ID=45467386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011090864A Pending JP2012022670A (ja) 2010-07-16 2011-04-15 人−マシンインタラクションシステム

Country Status (3)

Country Link
US (1) US20120015723A1 (ja)
JP (1) JP2012022670A (ja)
CN (1) CN102335510B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193373B (zh) * 2012-09-03 2020-04-24 联想(北京)有限公司 一种信息处理方法及电子设备
US10261611B2 (en) 2012-12-03 2019-04-16 Apkudo, Llc System and method for objectively measuring user experience of touch screen based devices
US9578133B2 (en) 2012-12-03 2017-02-21 Apkudo, Llc System and method for analyzing user experience of a software application across disparate devices
US9075781B2 (en) 2013-03-15 2015-07-07 Apkudo, Llc System and method for coordinating field user testing results for a mobile application across various mobile devices
US9566508B2 (en) * 2014-07-11 2017-02-14 Zeroplus Technology Co., Ltd. Interactive gaming apparatus using an image projected onto a flexible mat
GB2532465B (en) 2014-11-19 2021-08-11 Bae Systems Plc Interactive control station
US9283672B1 (en) 2014-12-11 2016-03-15 Apkudo, Llc Robotic testing device and method for more closely emulating human movements during robotic testing of mobile devices
EP3262488B1 (en) 2015-02-25 2021-04-07 BAE Systems PLC Apparatus and method for effecting a control action in respect of system functions
US20160303432A1 (en) * 2015-04-14 2016-10-20 Taylor Made Golf Company, Inc. Golf ball with polyalkenamer blend
TWI713053B (zh) * 2018-04-10 2020-12-11 仁寶電腦工業股份有限公司 動作評估系統、其方法及非暫態電腦可讀取記錄媒體
CN112631417A (zh) * 2019-10-08 2021-04-09 仁宝电脑工业股份有限公司 沉浸式多媒体系统、沉浸式互动方法及可移动互动单元
CN112347178A (zh) * 2020-11-11 2021-02-09 天津汇商共达科技有限责任公司 基于人机交互行为的数据对接方法、装置、终端及服务器

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (ja) * 1998-10-30 2000-05-16 Fujitsu Ltd 情報処理装置及び擬似生物機器
JP2001236137A (ja) * 2000-02-22 2001-08-31 Totoku Electric Co Ltd ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置
JP2003275473A (ja) * 2002-03-20 2003-09-30 Mitsubishi Heavy Ind Ltd 移動ロボットを用いた描画システム
JP2005074536A (ja) * 2003-08-28 2005-03-24 Sony Corp ロボット装置及びその制御方法
JP2005317032A (ja) * 2004-04-29 2005-11-10 Microsoft Corp 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム
JP2006311974A (ja) * 2005-05-06 2006-11-16 Masako Okayasu 液晶ディスプレイと液晶ディスプレイ衝撃緩和形状スイッチを組み込んだロボット玩具
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法
JP2008155351A (ja) * 2006-12-26 2008-07-10 Olympus Corp ロボット
JP2008212617A (ja) * 2007-03-02 2008-09-18 National Taiwan Univ Of Science & Technology インテリジェント型ロボット多機能ボードゲームシステム
JP2009011362A (ja) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc 情報処理システム、ロボット装置及びその制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4398720A (en) * 1981-01-05 1983-08-16 California R & D Center Robot computer chess game
JPS61156405A (ja) * 1984-12-28 1986-07-16 Nintendo Co Ltd 光感応制御装置
CN2357783Y (zh) * 1998-12-17 2000-01-12 大洋玩具工业股份有限公司 具支撑架的滚动球玩具
NL1012164C2 (nl) * 1999-05-27 2000-11-28 Pagter & Partners Int Bv Verpakking voor langstelige, weinig of geen blad bezittende bloemen, in het bijzonder gerbera's, anthuriums en aronskelken.
US6690156B1 (en) * 2000-07-28 2004-02-10 N-Trig Ltd. Physical object location apparatus and method and a graphic display device using the same
US6733360B2 (en) * 2001-02-02 2004-05-11 Interlego Ag Toy device responsive to visual input
JP3632644B2 (ja) * 2001-10-04 2005-03-23 ヤマハ株式会社 ロボット、および、ロボットの動作パターン制御プログラム
CN1490694A (zh) * 2002-10-14 2004-04-21 刘于诚 敲击反应系统
US20060223637A1 (en) * 2005-03-31 2006-10-05 Outland Research, Llc Video game system combining gaming simulation with remote robot control and remote robot feedback
US7469899B1 (en) * 2005-07-25 2008-12-30 Rogers Anthony R Electronic board game system with automated opponent
CN2864779Y (zh) * 2005-09-28 2007-01-31 联想(北京)有限公司 设置在主机设备上的人性化灯效产生装置
US20070173974A1 (en) * 2006-01-25 2007-07-26 Chyi-Yeu Lin Device and method for interacting with autonomous robot
US8307295B2 (en) * 2006-10-03 2012-11-06 Interbots Llc Method for controlling a computer generated or physical character based on visual focus
TW200824767A (en) * 2006-12-08 2008-06-16 Yu-Hsi Ho Materialization system for virtual object and method thereof
CN101206544B (zh) * 2006-12-22 2010-05-19 财团法人工业技术研究院 人机互动的触觉感测装置及其方法
US8939842B2 (en) * 2009-01-13 2015-01-27 Meimadtek Ltd. Method and system for operating a self-propelled vehicle according to scene images

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135384A (ja) * 1998-10-30 2000-05-16 Fujitsu Ltd 情報処理装置及び擬似生物機器
JP2001236137A (ja) * 2000-02-22 2001-08-31 Totoku Electric Co Ltd ガイドロボット、情報処理装置およびガイドロボット付き情報処理装置
JP2003275473A (ja) * 2002-03-20 2003-09-30 Mitsubishi Heavy Ind Ltd 移動ロボットを用いた描画システム
JP2005074536A (ja) * 2003-08-28 2005-03-24 Sony Corp ロボット装置及びその制御方法
JP2005317032A (ja) * 2004-04-29 2005-11-10 Microsoft Corp 仮想環境と物理的オブジェクトとの間の対話を可能にするための方法およびシステム
JP2006311974A (ja) * 2005-05-06 2006-11-16 Masako Okayasu 液晶ディスプレイと液晶ディスプレイ衝撃緩和形状スイッチを組み込んだロボット玩具
WO2007061057A1 (ja) * 2005-11-25 2007-05-31 Matsushita Electric Industrial Co., Ltd. ジェスチャー入力装置、及び方法
JP2008155351A (ja) * 2006-12-26 2008-07-10 Olympus Corp ロボット
JP2008212617A (ja) * 2007-03-02 2008-09-18 National Taiwan Univ Of Science & Technology インテリジェント型ロボット多機能ボードゲームシステム
JP2009011362A (ja) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc 情報処理システム、ロボット装置及びその制御方法

Also Published As

Publication number Publication date
CN102335510B (zh) 2013-10-16
CN102335510A (zh) 2012-02-01
US20120015723A1 (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP2012022670A (ja) 人−マシンインタラクションシステム
US11826636B2 (en) Depth sensing module and mobile device including the same
US11221730B2 (en) Input device for VR/AR applications
US10564730B2 (en) Non-collocated haptic cues in immersive environments
US9240268B2 (en) Magnetically movable objects over a display of an electronic device
US9155960B2 (en) Video-game console for allied touchscreen devices
CN107533369B (zh) 带有外围装置的手套指尖的磁性跟踪
US10086267B2 (en) Physical gesture input configuration for interactive software and video games
US9430106B1 (en) Coordinated stylus haptic action
CN107297073B (zh) 外设输入信号的模拟方法、装置及电子设备
US20140139455A1 (en) Advancing the wired and wireless control of actionable touchscreen inputs by virtue of innovative attachment-and-attachmentless controller assemblies: an application that builds on the inventor's kindred submissions
US8847879B2 (en) Motionbeam interaction techniques for handheld projectors
US10474238B2 (en) Systems and methods for virtual affective touch
KR20110058812A (ko) 통합된 햅틱 컨트롤 장치 및 터치 감지 디스플레이
US10617942B2 (en) Controller with haptic feedback
US8371897B1 (en) Vision technology for interactive toys
KR20150097050A (ko) 박수 게임을 이용한 유아 및 발달장애 아동의 학습 시스템
US20140168079A1 (en) Cursor control system
WO2017168186A1 (en) Methods and apparatus for "tangible gesture"and simulating /instruments that might require skills in finger movement/gesture and related training technology
CN107102725B (zh) 一种基于体感手柄进行虚拟现实移动的控制方法及系统
CA2843670A1 (en) Video-game console for allied touchscreen devices
JP7317395B2 (ja) 薄型携帯通信端末およびその制御方法並びに制御プログラム
US20230149805A1 (en) Depth sensing module and mobile device including the same
EP3367216A1 (en) Systems and methods for virtual affective touch
CN110947180A (zh) 一种游戏中的信息处理方法和装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130319