JP2023050191A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2023050191A
JP2023050191A JP2022156628A JP2022156628A JP2023050191A JP 2023050191 A JP2023050191 A JP 2023050191A JP 2022156628 A JP2022156628 A JP 2022156628A JP 2022156628 A JP2022156628 A JP 2022156628A JP 2023050191 A JP2023050191 A JP 2023050191A
Authority
JP
Japan
Prior art keywords
information
image
unit
information processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022156628A
Other languages
English (en)
Inventor
守 宮脇
Mamoru Miyawaki
裕之 篠田
Hiroyuki Shinoda
貴晶 神垣
Takaaki Kamigaki
充 伊藤
Mitsuru Ito
汰雄 森崎
Tao Morisaki
颯 鈴木
Hayate Suzuki
篤 松林
Atsushi Matsubayashi
涼哉 小丹枝
Ryoya Onishi
泰才 牧野
Yasutoshi Makino
碩 井上
Seki Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to US18/077,393 priority Critical patent/US20240111366A1/en
Publication of JP2023050191A publication Critical patent/JP2023050191A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transducers For Ultrasonic Waves (AREA)

Abstract

【課題】触覚から対象物の形状等を認識することのできるシステムを構成することのできる情報処理装置及びプログラムを提供する。【解決手段】システムにおいて、情報処理装置1は、情報取得部101、画像処理部103、位置処理部104、視覚情報生成部105及び触覚情報生成部106を備える。情報取得部101は、ユーザの視野を示す情報を含む視点情報と、超音波の照射対象の動作を示す動作情報と、対象物情報とを取得する。視覚情報生成部105は、位置処理部104が算出した位置に基づいて、背景画像と、対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置26に出力する。触覚情報生成部106は、位置処理部104が算出した位置と、動作情報と、対象物情報とに基づいて、対象物に応じた超音波をユーザに照射させる触覚情報を生成し、該生成した触覚情報を超音波発生装置27に出力する。【選択図】図3

Description

本発明は、情報処理装置及びプログラムに関する。
近年、拡張現実(Augmented Reality:AR)や仮想現実(Virtual Reality:VR)、複合現実(Mixed Reality:MR)を利用する機会が増大している。これらの技術は、人の視覚に対する画像を表示する技術であるが、これらに、触覚を提示することを加えることも望まれている。触覚の提示には、例えば、超音波を用いたものが提案されている(例えば、特許文献1)。
特表2021-508115号公報
ところで、視覚情報とともに触覚情報を提示する場合、提示する触覚が、対象物の有無を確認できる程度の簡易なものであれば、触覚から対象物の形状を認識したり、対象物を操作することに利用することは困難である。
本発明では上記事情を鑑み、触覚から対象物の形状等を認識することのできるシステムを構成することのできる情報処理装置及びプログラムを提供することとした。
本発明の一態様によれば、情報処理装置が提供される。この情報処理装置は、情報取得部と、画像処理部と、位置処理部と、視覚情報生成部と、触覚情報生成部とを備える。情報取得部は、視点情報と、動作情報と、対象物情報とを取得可能に構成される。視点情報は、ユーザの視野を示す情報を含む。動作情報は、超音波の照射対象の動作を示す情報である。対象物情報は、対象物の座標、形状、表面状態、固さ、温度、質量、摩擦係数のうちの少なくとも1つを含む。画像処理部は、対象物画像を処理可能に構成される。対象物画像は、仮想物体を表す画像であり、視点情報及び動作情報に基づいて更新される。位置処理部は、背景画像と、対象物画像とを重ね合わせる際の位置を算出処理可能に構成される。背景画像は、ユーザの視野に応じた画像である。視覚情報生成部は、位置処理部が算出した位置に基づいて、背景画像と、対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置に出力可能に構成される。触覚情報生成部は、位置処理部が算出した位置と、動作情報と、対象物情報とに基づいて、対象物に応じた超音波をユーザに照射させる触覚情報を生成し、該生成した触覚情報を超音波発生装置に出力可能に構成される。
本発明の一態様によれば、触覚から対象物の形状等を認識することが可能となる。
本発明の実施形態に係る情報処理装置1を含むシステム10の構成例を示した図である。 情報処理装置1の構成を示した図である。 情報処理装置1の機能的な構成を示すブロック図である。 動作情報入力装置3及び超音波発生装置8を含む装置の構成例を示した図である。 図4に示した装置の使用例を示した図である。 ユーザ画像の例を示した図である。 対象物画像の例を示した図である。 表示装置7に表示される画像の例を示した図である。 許可オブジェクトと不許可オブジェクトとを含めた画像の例を示した図である。 許可オブジェクトと不許可オブジェクトとを含めた画像の例を示した図である。 超音波の照射位置の例を示した図である。 超音波の照射位置の例を示した図である。 パッシブなアクチュエータの一例を示した図である。 連携処理部109を説明するための図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.全体構成
図1は、本発明の実施形態に係る情報処理装置1を含むシステム10の構成例を示した図である。同図に示すように、システム10は、情報処理装置1に、視点情報入力装置21と、動作情報入力装置22と、対象物情報入力装置23と、温度情報入力装置24と、音声入力装置25と、表示装置26と、超音波発生装置27と、音響出力装置28と、気流出力装置29とが接続されて構成される。これらの各装置は、通信手段により相互に接続されていれば良く、分散配置されていても良い。また、システム10は、同等のシステムを複数用いて、これらを通信手段により相互接続を行い、相互インタラクションを行う形を取っても良い。
視点情報入力装置21は、ユーザの視野を示す視点情報を情報処理装置1に入力するもので、例えば、カメラである。この視点情報入力装置21は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。
動作情報入力装置22は、超音波の照射対象となるユーザや物体の動き、具体的には、ユーザの指を含む手や顔など皮膚の露出部の動き、パッシブなアクチュエータとなり得る物体の動きを動作情報として、情報処理装置1に入力するもので、例えば、カメラなどのセンサである。この動作情報入力装置22は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。
対象物情報入力装置23は、仮想表示する対象物を示す対象物情報を情報処理装置1に入力するもので、例えば、情報処理装置1とネットワークを介して通信可能なサーバ等である。
温度情報入力装置24は、超音波の照射対象となる表面の温度を示す温度情報を入力するもので、例えば、サーモカメラである。この温度情報入力装置24は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。なお、温度情報入力装置24は、省略することも可能である。
音声入力装置25は、ユーザが音声により発する指示を入力するもので、例えば、マイクである。この音声入力装置25は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。なお、音声入力装置25は、省略することも可能である。
表示装置26は、AR、VR、MR等の画像を表示するもので、例えば、ディスプレイである。このディスプレイは、据え置き型やユーザが装着するゴーグル型、スマートフォンやタブレットなどの携帯型のものであってもよい。この表示装置26は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。なお、表示装置26が表示する画像は、映像や動画像等を含む。
超音波発生装置27は、ユーザの皮膚の露出部(例えば、手指や腕、顔面)、あるいは、超音波の照射により動作可能な物体に、超音波を照射するもので、例えば、トランスデューサアレイである。この超音波発生装置27は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。
音響出力装置28は、効果音等を発生させるもので、例えば、スピーカである。この音響出力装置28は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。なお、音響出力装置28は、省略することも可能である。
気流出力装置29は、ユーザに臨場感を与えるための気流を発生させるもので、例えば、送風機である。この気流出力装置29は、ユーザの動きに追従し、姿勢や位置を変えても良く、これは例えば、アクチュエータと一体化して実現しても良い。また、リモコン等で遠隔操作可能な扇風機やサーキュレータ等を気流出力装置29として用いることも可能である。なお、気流出力装置29は、省略することも可能である。また、超音波発生装置27を気流出力装置29として利用し、超音波の時空間分布の適切な制御により、気流を制御することも可能である。
2.情報処理装置の構成
次に、情報処理装置1の構成について説明する。図2は、情報処理装置1の構成を示した図である。同図に示すように、情報処理装置1は、処理部11と、記憶部12と、一時記憶部13と、外部装置接続部14と、通信部15とを有しており、これらの構成要素が情報処理装置1の内部において通信バス16を介して電気的に接続されている。また、情報処理装置1は、電源装置17を有している。
処理部11は、例えば、記憶部12に記憶された所定のプログラムに従って動作する中央処理装置(Central Processing Unit:CPU)、または、記憶部12に記憶された所定のプログラムに従って構成されるプログラム可能な論理回路、あるいは、それらの組み合わせによって実現されるもので、種々の機能を実現する。
記憶部12は、様々な情報を記憶する不揮発性の記憶媒体である。これは、例えばハードディスクドライブ(Hard Disk Drive:HDD)やソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスにより実現される。なお、記憶部12は、情報処理装置1と通信可能な別の装置に配するようにすることも可能である。
一時記憶部13は、揮発性の記憶媒体である。これは、例えばランダムアクセスメモリ(Random Access Memory:RAM)等のメモリにより実現され、処理部11が動作する際に一時的に必要な情報(引数、配列等)を記憶する。
外部装置接続部14は、例えばユニバーサルシリアルバス(Universal Serial Bus:USB)や高精細度マルチメディアインターフェース(High-Definition Multimedia Interface:HDMI(登録商標))といった規格に準じた接続部であり、キーボード等の入力装置やモニタ等の表示装置を接続可能としている。視点情報入力装置21、動作情報入力装置22、温度情報入力装置24、音声入力装置25、表示装置26、超音波発生装置27、音響出力装置28、気流出力装置29等は、外部装置接続部14に接続される。
通信部15は、例えばローカルエリアネットワーク(Local Area Network:LAN)規格に準じた通信手段であり、情報処理装置1とローカルエリアネットワークやこれを介したインターネット等のネットワークとの間の通信を実現する。このネットワークには、対象物情報入力装置23、情報処理装置1と同様の情報処理装置等が通信可能に接続される。なお、視点情報入力装置21、動作情報入力装置22、温度情報入力装置24、音声入力装置25、表示装置26、超音波発生装置27、音響出力装置28、気流出力装置29等を接続するようにしてもよい。
電源装置17は、視点情報入力装置21、動作情報入力装置22、温度情報入力装置24、音声入力装置25、表示装置26、超音波発生装置27、音響出力装置28、気流出力装置29等を動作させるための電気エネルギーを供給するものであり、商用電源やバッテリー等から得た電気エネルギーを供給する。電気エネルギーの供給先の装置が、外部装置接続部14を介して有線で接続されている場合には、当該有線を用いて電気エネルギーを供給する。有線での給電に代えてワイヤレス給電システムによる給電を行っても良い。また、電気エネルギーの供給先の装置が無線で接続されている場合には、ワイヤレス給電システムによる給電を行う。もちろん、視点情報入力装置21、動作情報入力装置22、温度情報入力装置24、音声入力装置25、表示装置26、超音波発生装置27、音響出力装置28、気流出力装置29等がバッテリーを有している場合や商用電源から給電されている場合には、当該装置への電源装置17からの給電は不要である。なお、電源装置17は、バッテリーやワイヤレス給電システム等のその他の装置すべて、あるいは、それらのいずれかと一体化した形態を取っても良い。
なお、情報処理装置1には、パーソナルコンピュータ等のコンピュータを利用することが可能であり、複数のコンピュータを用いて情報処理装置1を構成することも可能である。
3.情報処理装置1の機能
次に、情報処理装置1の機能について説明する。情報処理装置1は、入力された情報に基づいて、ユーザに与える視覚と触覚、あるいは、触覚のみを生成するための情報を生成するもので、プログラムにしたがって動作することで、後述する各機能部を実現する。このプログラムは、コンピュータを情報処理装置として動作又は機能させるプログラムである。
図3は、情報処理装置1の機能的な構成を示すブロック図である。同図に示すように、情報処理装置1は、情報取得部101と、操作制御部102と、画像処理部103と、位置処理部104と、視覚情報生成部105と、触覚情報生成部106と、音響情報生成部107と、気流情報生成部108と、連携処理部109とを備える。
情報取得部101は、視点情報と、動作情報と、対象物情報と、音声情報と、温度情報とを取得可能に構成される。視点情報は、ユーザの視野を示す情報を含むもので、視点情報入力装置21、例えば、カメラによる撮像画像である。動作情報は、超音波の照射対象の動作、例えば、ユーザの動作や物体の動作を示す情報であり、動作情報入力装置22から入力されるものである。対象物情報は、対象物の座標、形状、表面状態、固さ、温度、質量、摩擦係数のうちの少なくとも1つを含み、好ましくは、対象物の表面の状態、例えば、テクスチャや、材質等を含むもので、対象物情報入力装置23から入力されるものである。音声情報は、ユーザが発する音声であり、音声入力装置25から入力されるものである。ただし、音声情報は、必須のものではない。温度情報は、超音波の照射対象の表面温度を示す情報であり、温度情報入力装置24、例えば、サーモカメラから入力される。ユーザの手指や顔面などの皮膚の露出部や物体表面など、超音波が照射される対象表面の温度は、超音波の照射によって変化するので、温度の変化から超音波の照射位置とその強度を特定できる。この温度変化はサーモカメラを用いても計測できるし、赤外線カメラを用いても推定することができる。常にサーモカメラ等で対象表面を計測し続ける必要はなく、対象表面を一度計測して、その位置を計測するセンサの出力、サーモカメラの温度変化を観測する位置、超音波トランスデューサが超音波の焦点を形成しているはずの位置の間のズレを補正するようにしてもよい。また、超音波を照射する対象表面の温度を直接計測するのではなく、例えばナイロン製のポリマーメッシュなどの上に焦点を形成してそれをサーモカメラ等で撮影し、超音波トランスデューサが焦点を形成しているはずの位置と、サーモカメラが温度変化を観測する位置を比較して補正してもよい。
ここで、動作情報入力装置22及び超音波発生装置27の構成例について説明する。図4は、動作情報入力装置22及び超音波発生装置27を含む装置の構成例を示した図である。図4に示した装置は、ステージ1001と、ローラ1002、接触パッド1003、リング状基板1004で構成され、ステージ1001とリング状基板1004には、動作情報入力装置22と超音波発生装置27とが、それぞれ複数設けられている。ステージ1001は、ローラ1002により回転可能であり、接触パッド1003に腕や手を載せた状態で、その腕等を動かすことで回転する。なお、ステージ1001と、ローラ1002、接触パッド1003は、省略可能である。この図4に示した装置は、図5に示すような状態で用いられる。図5は、図4に示した装置の使用例を示した図である。
操作制御部102は、ユーザによる対象物の操作の可否を制御可能に構成される。例えば、操作制御部102は、許可オブジェクトの押下に応じて操作を許可し、不許可オブジェクトの操作に応じて操作を不許可にする。許可オブジェクトと、不許可オブジェクトは、後述するように、対象物と同様に、仮想物体として、表示されるものである。また、操作制御部102は、情報取得部101が取得した音声情報に応じて操作の可否を制御するようにしてもよい。操作制御部102による操作の可否の制御は、例えば、複数のユーザが同一の対象物を見ている場合に、操作ができるユーザを限定するものであり、例えば、ユーザの一人が対象物を右回転させようとする操作を行い、別のユーザが対象物を左回転させようとする操作を行う等、相反する操作を行うことを防止することができる。また、二人のユーザが協力して対象物を引っ張り合う場合には、その二人のユーザの操作を可能とするように制御することができる。また、ユーザが一人の場合でも、対象物が容易に変形するものである場合等に、その変形を防止するために、操作を不許可とすることができる。
画像処理部103は、背景画像と、対象物画像とを処理可能に構成される。背景画像は、ユーザの視野に応じた画像であり、視点情報に基づいて更新される。背景画像は、視点情報入力装置21であるカメラが撮像した画像であってもよく、予め撮像又は生成された画像であってもよい。また、画像処理部103は、ユーザ画像を処理の対象とする場合もある。
ユーザ画像は、視点情報入力装置21であるカメラが撮像した画像以外の予め撮像又は生成された画像である場合位用いられるもので、ユーザの指を含む手を表す画像であり、動作情報に基づいて更新される。ユーザ画像は、例えば、図6に示すようなものとなる。このユーザ画像は、ユーザが指等を動かすことにより更新される。
対象物画像は、仮想物体を表す画像であり、視点情報及び動作情報に基づいて更新される。対象物画像は、例えば、図7に示すようなものとなる。この対象物画像は、ユーザが対象物を操作しようとする動作を示す動作情報に基づいて、対象物の移動と、回転と、変形と、分割と、結合とのいずれかの操作を行った状態に対象物画像を更新する。もちろん、対象物によっては、分割等を行うことができない場合もあり、ここに示した以外の操作、例えば、対象物の一部を削除する操作等を行うことも可能である。
位置処理部104は、画像処理部103が処理した背景画像と、ユーザ画像と、対象物画像とを重ね合わせる際の位置を算出処理可能に構成される。ユーザ画像を用いない場合には、ユーザ画像の重ね合わせが不要なのは、もちろんのことである。また、対象物情報は、複数の環境のそれぞれに応じた環境対応情報を含んでいてもよく、この場合には、位置処理部104は、環境対応情報と視点情報とに基づいて、ユーザの視野に応じた環境に対応するように背景画像と対象物画像とを重ね合わせる際の位置を算出する。結果として、例えば、平面には対象物が正立した状態で重ね合わせることができ、一定以上の斜度を有する面には、正立した状態で重ね合わせることができないといった差異が生じることになる。
視覚情報生成部105は、位置処理部104が算出した位置に基づいて、画像処理部103が処理した背景画像と、必要に応じてユーザ画像と、対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置26に出力可能に構成される。視覚情報生成部105が生成した視覚情報に基づいて表示装置26に表示される画像は、例えば、図8に示すようなものとなる。なお、図8においては、簡略化のため、背景を無地で表現している。この画像は、ユーザの視点の変更や、ユーザの動作により更新される。
また、視覚情報生成部105は、視覚情報に、操作の許可に対応する許可オブジェクトと、操作の不許可に対応する不許可オブジェクトとを含めることができる。つまり、表示装置26に表示される画像に、許可オブジェクトと不許可オブジェクトとを表示させることができる。この画像は、例えば、図9及び図10に示すようなものとなる。図9及び図10は、許可オブジェクトと不許可オブジェクトとを含めた画像の例を示した図である。図9は、許可オブジェクト1101が押下された直後の画像を示したものであり、図10は、不許可オブジェクト1102が押下された直後の画像を示したものである。また、図10に示した画像は、図9に示した画像を見ているユーザと相対する位置から対象物を見ているユーザが見ている画像でもある。
触覚情報生成部106は、位置処理部104が算出した位置と、動作情報と、対象物情報とに基づいて、対象物に応じた超音波をユーザに照射させる触覚情報を生成し、該生成した触覚情報を超音波発生装置27に出力可能に構成される。具体的には、触覚情報生成部106は、感性パターン決定部106aと、駆動信号決定部106bとを有する。感性パターン決定部106aは、対象物情報、あるいは、後述するアプリケーションソフトで決められるユーザに提示する触覚の種類を示す感性パターンを決定する。触覚の種類は、例えば、「つるつる」、「ざらざら」等の言葉で表現されるものである。駆動信号決定部106bは,感性パターン決定部106aで決定された触覚と、位置処理部104が算出した位置と、動作情報とに基づいて、ユーザ、あるいは、パッシブなアクチュエータとなり得る物体へ照射する超音波の駆動パターンを決める駆動信号を生成し、超音波発生装置27に出力する。
触覚情報である駆動信号は、超音波の振幅変動周波数と、強度と、位相と、照射位置との少なくともひとつに、時間的なパターンを有する。例えば、超音波の照射位置は、図11及び図12に示すように、複数のものがあり、これを時間的に変化させることになる。また、この時間パターンは提示する刺激の触感の制御にも用いる。例えば、時間パターンを高い周波数でさせることで振動感を伴う刺激を、低い周波数で変化させることで(ほとんど振動を伴わない)静的な刺激を、それぞれ提示する。
図11及び図12は、超音波の照射位置の例を示した図である。図11に示した例は、ユーザの指1201に、面1301を感じさせるために、部位1202に超音波を照射したもので、図12に示した例は、指1201に面1302を感じさせるために、部位1203に超音波を照射したものである。これらの面との接触刺激においても、提示刺激の触感を変化させることができる。例えば、前述した強い振動を伴わない刺激を用いることで面との接触角度を明確に提示できる。
図13は、パッシブなアクチュエータの一例を示した図である。同図に示すアクチュエータ1401は、ユーザの指1402に装着されるもので、図中の矢印Aの方向から超音波を照射することで、ユーザへ触覚を提示することができる。このとき、超音波の照射パターンを変化させることで、振動や静的な力を提示することが可能である。また、アクチュエータ1401は、超音波を照射する位置に、マーカ等を付すようにしてもよい。パッシブなアクチュエータは、アクチュエータ1401のような指に装着する形態だけでなく、サングラスや服などのヒトが身に着ける物やコップやスマートフォンカバーなどヒトが把持するものといった、ヒトの皮膚に接触する物体が対象となる。なお、これらは、いずれも、パッシブな機構に超音波を照射するものである。また、この超音波で駆動するパッシブな機構は小型のバッテリーや電子部品と組みあわせて使ってもよい。
触覚情報に含まれるパターンは、対象物の形状に応じたパターンや、対象物の表面の状態又は材質に応じたパターンである。提示する超音波の時空間分布を制御することで、物体の硬軟感、表面のテクスチャ、動かしやすさ(重量感)、温度などその対象物体の特性を触覚的に再現、ユーザに提示できる。硬軟感については、例えば、対象物が粘土等の変形が容易なものであれば、最初にユーザの指のある部位にのみ、超音波が照射され、次いで、指の複数の部位に同時に超音波が照射されることで、ユーザは、指が粘土内に沈み込む触感を得ることができる。また、対象物の材質が硬いものであれば、ユーザが指を押し込もうとする力に応じて超音波の強度を強くし、ユーザの指が押し込まれないようにすることができる。テクスチャについては、例えば、ユーザが表面を軽く撫でた場合に、その指の速度と対象面の状態(例えば空間波長)に応じて指に与える刺激パターンを時間変化させることで、特定物体の表面を撫でた触感を提示することもできる。重量感については、例えば、重たい物体(動きにくい物体)を再現する場合は、その対象物を動かす際に起きる指先の移動に対し、刺激位置の移動を時間的に遅らせることで提示できる。この刺激位置移動における時間的な遅れによって、力を加えたのに物体が動かなった(動きにくかった)という体験をユーザに与えることができる。逆に、完全に遅延なく刺激位置を追従させれば軽い物体も表現できる。物体の冷感については、例えば、超音波を照射した位置に同時にミストを噴射し、そのミストを気化させることで提示できる。熱感については、超音波の照射位置にその音波を吸音する構造体、例えば、超音波の波長より十分小さい空隙パターンを備えた構造体やメッシュ素材を張り付けることで提示できる。なお、操作制御部102により、操作が不許可となっているユーザに対しても、触感は提供される。なお、触覚情報に含まれるパターンは、必ずしも変化を含むものではなく、超音波の強度や照射位置等が一定の場合も含まれる。これは、ユーザが平面に対して、正面から指を接触させた場合等のパターンである。
このように触覚情報はユーザが対象物に触りにいく場合のみだけでなく、対象物から触られる場合にも適用される。例えば、対象物が移動する物体や仮想キャラクターのような生き物やの場合、手指だけでなく、顔面を含む皮膚の露出部に前項の触覚を提示できる。
また、触覚情報生成部106は、温度情報入力装置24から入力された温度情報に基づいて、超音波を照射する位置と強度を補正するようにしてもよい。これは、超音波の照射により、ユーザの指等の温度が変化することを利用するもので、超音波の照射位置が適切な場合と不適切な場合とで、ユーザの指等の温度が異なることから、照射位置のずれや強度を検出し、補正するものである。また、指の隙間や掌線などの空隙に超音波が進入した際の痛覚防止にも用いてよい。
ところで、触覚情報生成部106は、ユーザの手又は指の位置が対象物の位置と重ね合わせられてから50ms以内、例えば、10ms以内、20ms以内、30ms以内、40ms以内、又は、これらの間の数以内に、触覚情報を出力することが望ましく、さらには、これらの時間以内に、ユーザに触覚を提示できる、つまり、ユーザが対象物に触れる動作を行ってから50ms以内に触感を得ることができることが望ましい。
ところで、触感再現には必ずしも超音波による機械的刺激だけを用いるのではなく、映像や音を適宜利用する、あるいはこれらを組み合わせて用いてもよい。このため、音響情報生成部107は、ユーザによる対象物の操作に応じた効果音を発生させる音響情報を生成し、音響出力装置28を鳴動させる。これにより、ユーザは、より直感的な操作を行うことができる。
同様に、気流情報生成部108は、気流出力装置29又は超音波発生装置27により発生させる気流の状態を示す気流情報を生成する。気流は、例えば、ユーザに物体が近づいてきた際に風が吹く感覚や仮想キャラクターに息を吹きかけられる感覚などの提示に用いられる。
連携処理部109は、他の機能との連携を行うものである。図14は、連携処理部109を説明するための図である。同図に示すように、連携処理部109は、機能部120と、他の情報処理装置1との少なくとも一方との連携処理を行う。機能部120は、情報取得部101、操作制御部102、画像処理部103、位置処理部104、視覚情報生成部105、触覚情報生成部106、音響情報生成部107、気流情報生成部108、連携処理部109を含む自機能部110とは、独立した機能部であり、アプリケーションソフトウェアの動作により実現されるものである。この機能部120は、情報取得部101と、画像処理部103と、位置処理部104と、視覚情報生成部105と、触覚情報生成部106との少なくとも一部を代替することとができるものである。この機能部120は、例えば、ゲームのアプリケーションソフトウェアにより実現されるが、この場合には、情報処理装置1に図示しないコントローラが接続される場合があり、接続されたコントローラを動作情報入力装置22等の代替として用いることもできる。なお、連携処理部109は、複数のアプリケーションソフトウェアにより実現される複数の機能部と連携することも可能である。
また、連携処理部109が連携する他の情報処理装置1は、情報処理装置1と同じものであり、情報取得部101と、画像処理部103と、位置処理部104と、視覚情報生成部105と、触覚情報生成部106との少なくとも一部を代替することができる。もちろん、他の情報処理装置1においても、アプリケーションソフトウェアにより実現される機能部を実現することができる。なお、連携処理部109は、複数の情報処理装置1と連携することも可能である。
5.その他
本システムは既存のアクチュエータと組み合わせてもよい。例えば、ゲームコントローラを把持しているユーザへ超音波を照射し、ゲームコントローラで再現される触覚に加えて触覚を提示しても良い。
また、超音波発生装置27は、音波の透過できる物体、例えば、メッシュ状のシートで覆っても良い。この音波の透過が可能な物体表面上には、任意のカラーリングを施してもよく、これにより敷設先でのデザイン性を損なうことを防ぐことが可能となる。
本発明は、次に記載の各態様で提供されてもよい。
(1)情報処理装置であって、情報取得部と、画像処理部と、位置処理部と、視覚情報生成部と、触覚情報生成部とを備え、前記情報取得部は、視点情報と、動作情報と、対象物情報とを取得可能に構成され、前記視点情報は、ユーザの視野を示す情報を含み、前記動作情報は、超音波の照射対象の動作を示す情報であり、前記対象物情報は、対象物の座標、形状、表面状態、固さ、温度、質量、摩擦係数のうちの少なくとも1つを含み、前記画像処理部は、対象物画像を処理可能に構成され、前記対象物画像は、仮想物体を表す画像であり、前記視点情報及び前記動作情報に基づいて更新され、前記位置処理部は、背景画像と、前記対象物画像とを重ね合わせる際の位置を算出処理可能に構成され、前記背景画像は、前記ユーザの視野に応じた画像であり、前記視覚情報生成部は、前記位置処理部が算出した位置に基づいて、前記背景画像と、前記対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置に出力可能に構成され、前記触覚情報生成部は、前記位置処理部が算出した位置と、前記動作情報と、前記対象物情報とに基づいて、前記対象物に応じた超音波を前記ユーザに照射させる触覚情報を生成し、該生成した触覚情報を超音波発生装置に出力可能に構成される情報処理装置。
(2)上記(1)に記載の情報処理装置において、連携処理部を備え、前記連携処理部は、機能部と、他の情報処理装置との少なくとも一方との連携処理を行い、前記機能部は、アプリケーションソフトウェアの動作により実現され、前記情報取得部と、前記画像処理部と、前記位置処理部と、前記視覚情報生成部と、前記触覚情報生成部との少なくとも一部を代替し、前記他の情報処理装置は、前記情報取得部と、前記画像処理部と、前記位置処理部と、前記視覚情報生成部と、前記触覚情報生成部との少なくとも一部を代替する情報処理装置。
(3)上記(1)又は(2)に記載の情報処理装置において、前記視点情報は、カメラによる撮像画像であり、前記背景画像は、前記撮像画像である情報処理装置。
(4)上記(1)又は(2)に記載の情報処理装置において、前記背景画像は、予め撮像又は生成された画像であり、前記視点情報に基づいて更新され、前記画像処理部は、前記背景画像と、ユーザ画像と、前記対象物画像とを処理可能に構成され、前記ユーザ画像は、前記ユーザの指を含む手を表す画像であり、前記動作情報に基づいて更新され、前記位置処理部は、前記背景画像と、前記ユーザ画像と、前記対象物画像とを重ね合わせる際の位置を算出処理可能に構成され、前記視覚情報生成部は、前記位置処理部が算出した位置に基づいて、前記背景画像と、前記ユーザ画像と、前記対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置に出力可能に構成される情報処理装置。
(5)上記(1)乃至(4)のいずれか1つに記載の情報処理装置において、前記対象物情報は、複数の環境のそれぞれに応じた環境対応情報を含み、前記位置処理部は、前記環境対応情報と前記視点情報とに基づいて、前記ユーザの視野に応じた環境に対応するように前記背景画像と前記対象物画像とを重ね合わせる際の位置を算出する情報処理装置。
(6)上記(1)乃至(5)のいずれか1つに記載の情報処理装置において、前記触覚情報は、超音波の振幅変動周波数と、強度と、位相と、照射位置との少なくともひとつに、時間的なパターンを有する情報処理装置。
(7)上記(6)に記載の情報処理装置において、前記パターンは、前記対象物の形状に応じたパターンである情報処理装置。
(8)上記(6)又は(7)に記載の情報処理装置において、前記パターンは、前記対象物の表面の状態又は材質に応じたパターンである情報処理装置。
(9)上記(1)乃至(8)のいずれか1つに記載の情報処理装置において、前記画像処理部は、前記動作情報に基づいて、前記対象物の移動と、回転と、変形と、分割と、結合とのいずれかの操作を行った状態に前記対象物画像を更新する情報処理装置。
(10)上記(9)に記載の情報処理装置において、音響情報生成部を備え、前記音響情報生成部は、前記操作に応じた効果音を発生させる音響情報を生成可能に構成される情報処理装置。
(11)上記(9)又は(10)に記載の情報処理装置において、操作制御部を備え、前記操作制御部は、前記操作の可否を制御可能に構成される情報処理装置。
(12)上記(11)に記載の情報処理装置において、前記視覚情報生成部は、前記視覚情報に、前記操作の許可に対応する許可オブジェクトと、前記操作の不許可に対応する不許可オブジェクトとを含め、前記操作制御部は、前記許可オブジェクトの押下に応じて前記操作を許可し、前記不許可オブジェクトの操作に応じて前記操作を不許可にする情報処理装置。
(13)上記(12)に記載の情報処理装置において、前記情報取得部は、音声情報を取得し、前記操作制御部は、前記音声情報に応じて前記操作の可否を制御する情報処理装置。
(14)上記(1)乃至(13)のいずれか1つに記載の情報処理装置において、前記情報取得部は、温度情報を取得し、前記温度情報は、前記照射対象の表面の温度を示す情報であり、前記触覚情報生成部は、前記温度情報に基づいて、前記超音波を照射する位置を補正する情報処理装置。
(15)上記(14)に記載の情報処理装置において、前記情報取得部は、サーモカメラ又は赤外線カメラにより前記温度情報を取得する情報処理装置。
(16)上記(1)乃至(15)のいずれか1つに記載の情報処理装置において、前記触覚情報生成部は、前記ユーザの手又は指の位置が前記対象物の位置と重ね合わせられてから50ms以内に、前記触覚情報を出力する情報処理装置。
(17)コンピュータを情報処理装置として動作させるプログラムであって、少なくとも1つのコンピュータを上記(1)乃至(16)のいずれか1つに記載の情報処理装置として機能させるプログラム。
もちろん、この限りではない。
1 :情報処理装置
10 :システム
11 :処理部
12 :記憶部
13 :一時記憶部
14 :外部装置接続部
15 :通信部
16 :通信バス
17 :電源装置
21 :視点情報入力装置
22 :動作情報入力装置
23 :対象物情報入力装置
24 :温度情報入力装置
25 :音声入力装置
26 :表示装置
27 :超音波発生装置
28 :音響出力装置
29 :気流出力装置
101 :情報取得部
102 :操作制御部
103 :画像処理部
104 :位置処理部
105 :視覚情報生成部
106 :触覚情報生成部
106a :感性パターン決定部
106b :駆動信号決定部
107 :音響情報生成部
108 :気流情報生成部
109 :連携処理部
110 :自機能部
120 :機能部
1001 :ステージ
1002 :ローラ
1003 :接触パッド
1004 :リング状基板
1101 :許可オブジェクト
1102 :不許可オブジェクト
1201 :指
1202 :部位
1203 :部位
1301 :面
1302 :面
1401 :アクチュエータ
1402 :指

Claims (17)

  1. 情報処理装置であって、
    情報取得部と、画像処理部と、位置処理部と、視覚情報生成部と、触覚情報生成部とを備え、
    前記情報取得部は、視点情報と、動作情報と、対象物情報とを取得可能に構成され、
    前記視点情報は、ユーザの視野を示す情報を含み、
    前記動作情報は、超音波の照射対象の動作を示す情報であり、
    前記対象物情報は、対象物の座標、形状、表面状態、固さ、温度、質量、摩擦係数のうちの少なくとも1つを含み、
    前記画像処理部は、対象物画像を処理可能に構成され、
    前記対象物画像は、仮想物体を表す画像であり、前記視点情報及び前記動作情報に基づいて更新され、
    前記位置処理部は、背景画像と、前記対象物画像とを重ね合わせる際の位置を算出処理可能に構成され、
    前記背景画像は、前記ユーザの視野に応じた画像であり、
    前記視覚情報生成部は、前記位置処理部が算出した位置に基づいて、前記背景画像と、前記対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置に出力可能に構成され、
    前記触覚情報生成部は、前記位置処理部が算出した位置と、前記動作情報と、前記対象物情報とに基づいて、前記対象物に応じた超音波を前記ユーザに照射させる触覚情報を生成し、該生成した触覚情報を超音波発生装置に出力可能に構成される
    情報処理装置。
  2. 請求項1に記載の情報処理装置において、
    連携処理部を備え、
    前記連携処理部は、機能部と、他の情報処理装置との少なくとも一方との連携処理を行い、
    前記機能部は、アプリケーションソフトウェアの動作により実現され、前記情報取得部と、前記画像処理部と、前記位置処理部と、前記視覚情報生成部と、前記触覚情報生成部との少なくとも一部を代替し、
    前記他の情報処理装置は、前記情報取得部と、前記画像処理部と、前記位置処理部と、前記視覚情報生成部と、前記触覚情報生成部との少なくとも一部を代替する
    情報処理装置。
  3. 請求項1に記載の情報処理装置において、
    前記視点情報は、カメラによる撮像画像であり、
    前記背景画像は、前記撮像画像である
    情報処理装置。
  4. 請求項1に記載の情報処理装置において、
    前記背景画像は、予め撮像又は生成された画像であり、前記視点情報に基づいて更新され、
    前記画像処理部は、前記背景画像と、ユーザ画像と、前記対象物画像とを処理可能に構成され、
    前記ユーザ画像は、前記ユーザの指を含む手を表す画像であり、前記動作情報に基づいて更新され、
    前記位置処理部は、前記背景画像と、前記ユーザ画像と、前記対象物画像とを重ね合わせる際の位置を算出処理可能に構成され、
    前記視覚情報生成部は、前記位置処理部が算出した位置に基づいて、前記背景画像と、前記ユーザ画像と、前記対象物画像とを重ね合わせた視覚情報を生成し、該生成した視覚情報を表示装置に出力可能に構成される
    情報処理装置。
  5. 請求項1に記載の情報処理装置において、
    前記対象物情報は、複数の環境のそれぞれに応じた環境対応情報を含み、
    前記位置処理部は、前記環境対応情報と前記視点情報とに基づいて、前記ユーザの視野に応じた環境に対応するように前記背景画像と前記対象物画像とを重ね合わせる際の位置を算出する
    情報処理装置。
  6. 請求項1に記載の情報処理装置において、
    前記触覚情報は、超音波の振幅変動周波数と、強度と、位相と、照射位置との少なくともひとつに、時間的なパターンを有する
    情報処理装置。
  7. 請求項6に記載の情報処理装置において、
    前記パターンは、前記対象物の形状に応じたパターンである
    情報処理装置。
  8. 請求項6に記載の情報処理装置において、
    前記パターンは、前記対象物の表面の状態又は材質に応じたパターンである
    情報処理装置。
  9. 請求項1に記載の情報処理装置において、
    前記画像処理部は、前記動作情報に基づいて、前記対象物の移動と、回転と、変形と、分割と、結合とのいずれかの操作を行った状態に前記対象物画像を更新する
    情報処理装置。
  10. 請求項9に記載の情報処理装置において、
    音響情報生成部を備え、
    前記音響情報生成部は、前記操作に応じた効果音を発生させる音響情報を生成可能に構成される
    情報処理装置。
  11. 請求項9に記載の情報処理装置において、
    操作制御部を備え、
    前記操作制御部は、前記操作の可否を制御可能に構成される
    情報処理装置。
  12. 請求項11に記載の情報処理装置において、
    前記視覚情報生成部は、前記視覚情報に、前記操作の許可に対応する許可オブジェクトと、前記操作の不許可に対応する不許可オブジェクトとを含め、
    前記操作制御部は、前記許可オブジェクトの押下に応じて前記操作を許可し、前記不許可オブジェクトの操作に応じて前記操作を不許可にする
    情報処理装置。
  13. 請求項12に記載の情報処理装置において、
    前記情報取得部は、音声情報を取得し、
    前記操作制御部は、前記音声情報に応じて前記操作の可否を制御する
    情報処理装置。
  14. 請求項1に記載の情報処理装置において、
    前記情報取得部は、温度情報を取得し、
    前記温度情報は、前記照射対象の表面の温度を示す情報であり、
    前記触覚情報生成部は、前記温度情報に基づいて、前記超音波を照射する位置を補正する
    情報処理装置。
  15. 請求項14に記載の情報処理装置において、
    前記情報取得部は、サーモカメラ又は赤外線カメラにより前記温度情報を取得する
    情報処理装置。
  16. 請求項1に記載の情報処理装置において、
    前記触覚情報生成部は、前記ユーザの手又は指の位置が前記対象物の位置と重ね合わせられてから50ms以内に、前記触覚情報を出力する
    情報処理装置。
  17. コンピュータを情報処理装置として動作させるプログラムであって、
    少なくとも1つのコンピュータを請求項1乃至請求項16のいずれか1項に記載の情報処理装置として機能させる
    プログラム。
JP2022156628A 2021-09-29 2022-09-29 情報処理装置及びプログラム Pending JP2023050191A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/077,393 US20240111366A1 (en) 2021-09-29 2022-12-08 Information Processing Apparatus, Information Processing Method, And Non-Transitory Computer Readable Media Storing A Program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021159480 2021-09-29
JP2021159480 2021-09-29

Publications (1)

Publication Number Publication Date
JP2023050191A true JP2023050191A (ja) 2023-04-10

Family

ID=85802096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022156628A Pending JP2023050191A (ja) 2021-09-29 2022-09-29 情報処理装置及びプログラム

Country Status (2)

Country Link
US (1) US20240111366A1 (ja)
JP (1) JP2023050191A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102000536B1 (ko) * 2012-12-28 2019-07-16 삼성전자주식회사 합성 이미지를 촬영하는 촬영 장치 및 그 방법
EP3259654B1 (en) * 2015-02-20 2021-12-29 Ultrahaptics Ip Ltd Algorithm improvements in a haptic system
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
KR20170029320A (ko) * 2015-09-07 2017-03-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2020131020A1 (en) * 2018-12-17 2020-06-25 Emerge Now Inc. Systems for interfacing with immersive computing environments
EP3906462A2 (en) * 2019-01-04 2021-11-10 Ultrahaptics IP Ltd Mid-air haptic textures

Also Published As

Publication number Publication date
US20240111366A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
EP3327545A1 (en) Targeted haptic projection
JP2020004395A (ja) 仮想現実感ユーザのための実世界触覚対話
US10297122B2 (en) Wearable haptic effects with permissions settings
US10474238B2 (en) Systems and methods for virtual affective touch
WO2018086224A1 (zh) 一种虚拟现实场景的生成方法、设备及虚拟现实系统
US9235968B2 (en) Tactile elements for a wearable eye piece
US20140267005A1 (en) Eye piece for augmented and virtual reality
US10537815B2 (en) System and method for social dancing
US20140267401A1 (en) Visual Cortex Thought Detector Interface
JP2019050558A (ja) 非オーディオデータを用いたヘッドホン上でのハプティックのレンダリング
JP2008108054A (ja) 接触提示装置及び方法
US11157084B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
JP2018113025A (ja) 触覚によるコンプライアンス錯覚のためのシステム及び方法
US10943445B2 (en) Systems and methods for providing haptic effects with airflow and thermal stimulation
TW201443760A (zh) 用以擴增實境及虛擬實境之目鏡
CN109656353A (zh) 利用多个外围设备的触觉效果
Israr et al. Po2: augmented haptics for interactive gameplay
US9000899B2 (en) Body-worn device for dance simulation
US20150022443A1 (en) Process and Apparatus for Haptic Interaction with Visually Presented Data
Yoo et al. Emotional responses of vibrotactile-thermal stimuli: Effects of constant-temperature thermal stimuli
JP2023050191A (ja) 情報処理装置及びプログラム
McIntosh et al. Magic bench: a multi-user & multi-sensory AR/MR platform
Nakamura et al. Virtual walking with omnidirectional movies and foot vibrations: Scene-congruent vibrations enhance walking-related sensations and ground material perceptions
Hasegawa et al. Generating vibrotactile images on the human palms
Grandidier et al. Softly: Simulated empathic touch between an agent and a human

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221