JP2021177277A - プログラム、情報処理方法、情報処理装置、及び情報処理システム - Google Patents

プログラム、情報処理方法、情報処理装置、及び情報処理システム Download PDF

Info

Publication number
JP2021177277A
JP2021177277A JP2020081843A JP2020081843A JP2021177277A JP 2021177277 A JP2021177277 A JP 2021177277A JP 2020081843 A JP2020081843 A JP 2020081843A JP 2020081843 A JP2020081843 A JP 2020081843A JP 2021177277 A JP2021177277 A JP 2021177277A
Authority
JP
Japan
Prior art keywords
movement
character
information processing
user
controlling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020081843A
Other languages
English (en)
Other versions
JP7529242B2 (ja
Inventor
寛紀 渡辺
Hiroki Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jins Holdings Inc
Original Assignee
Jins Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jins Holdings Inc filed Critical Jins Holdings Inc
Priority to JP2020081843A priority Critical patent/JP7529242B2/ja
Priority to TW110115907A priority patent/TW202142296A/zh
Priority to US17/313,423 priority patent/US20210349533A1/en
Priority to CN202110497110.3A priority patent/CN113617023A/zh
Publication of JP2021177277A publication Critical patent/JP2021177277A/ja
Application granted granted Critical
Publication of JP7529242B2 publication Critical patent/JP7529242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/297Bioelectric electrodes therefor specially adapted for particular uses for electrooculography [EOG]: for electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0209Special features of electrodes classified in A61B5/24, A61B5/25, A61B5/283, A61B5/291, A61B5/296, A61B5/053
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Psychiatry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Dentistry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】インタラクティブにキャラクターを制御する際のユーザビリティを向上させるプログラム、情報処理方法、情報処理装置及び情報処理システムを提供する。【解決手段】アイウエアと情報処理装置で構成される情報処理システムにおいて、情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。取得部312は、ユーザの頭部に装着された他の装置から眼電位信号を少なくとも取得し、検出部314は、眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、表示制御部316は、画面に表示中の画像にキャラクターを重畳して表示制御し、キャラクター制御部318は、眼の動きの検出結果に基づいて、キャラクターの動作を制御する。【選択図】図4

Description

本発明は、プログラム、情報処理方法、情報処理装置、及び情報処理システムに関する。
従来、ユーザの頭部に装着されたヘッドマウントディスプレイ(HMD)により検出されるユーザの頭の動き等に基づいて、拡張現実として重畳されるアバターを制御することが知られている(例えば、特許文献1、2参照)。
特許第6470859号公報 特開2018−069069号公報
しかしながら、従来技術では、HMDで検出した頭部の動きを利用してアバター(キャラクター)を制御し、顔の部位の動きを利用する場合にはカメラでの撮影が行われているため、画像にアバターを簡便に重畳することができず、インタラクティブなキャラクター制御についてユーザビリティが必ずしも高くなかった。
そこで、開示技術は、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることを目的とする。
開示技術の一態様におけるプログラムは、情報処理装置に、ユーザの頭部に装着された他の装置から眼電位信号を少なくとも取得し、前記眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、画面に表示中の画像にキャラクターを重畳して表示制御し、前記眼の動きの検出結果に基づいて、前記キャラクターの動作を制御する、処理を実行させる。
開示技術によれば、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。
実施例における情報処理システムの一例を示す図である。 実施例における情報処理装置のハードウェア構成を示す概略構成図である。 実施例における処理装置の構成の一例を示すブロック図である。 実施例における情報処理装置の構成の一例を示す図である。 実施例におけるアプリケーションAの表示画面の例1を示す図である。 実施例におけるアプリケーションAの表示画面の例2を示す図である。 実施例におけるアプリケーションAの表示画面の例3を示す図である。 実施例におけるアプリケーションAの表示画面の例4を示す図である。 実施例におけるアプリケーションAの表示画面の例5を示す図である。 実施例におけるアプリケーションAの表示画面の例6を示す図である。 実施例におけるアプリケーションAに関する処理の一例を示すシーケンス図である。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
[実施例]
実施例では、加速度センサ及び角速度センサ、生体電極を搭載するウエアラブル端末の対象として、アイウエアを例に挙げるが、これに限られない。図1は、実施例における情報処理システム1の一例を示す図である。図1に示す情報処理システム1は、情報処理装置10と、アイウエア30とを含み、情報処理装置10と、アイウエア30とは、ネットワークを介して接続され、データ通信可能になっている。
アイウエア30は、例えばブリッジ部分に処理装置20を搭載する。処理装置20は、一対のノーズパッド及びブリッジ部を含み、それぞれに生体電極32、34、36を有する。処理装置20は、3軸加速度センサ及び3軸角速度センサ(6軸センサでもよい)を含んでもよい。
処理装置20は、センサ信号や眼電位信号等を検出して情報処理装置10に送信する。処理装置20の設置位置は、必ずしもブリッジ部分である必要はないが、アイウエア30が装着された際に、眼電位信号を取得可能な位置に位置決めされればよい。また、処理装置20は、ブリッジ部分に取り外し可能に設けられてもよい。
情報処理装置10は、通信機能を有する情報処理装置である。例えば、情報処理装置10は、ユーザが所持するスマートフォン等の携帯端末が好適であり、その他パーソナルコンピュータ、タブレット端末等である。情報処理装置10は、処理装置20から受信した眼電位信号やセンサ信号等に基づいて、ユーザの眼の動き、頭の動きを検出し、検出結果に基づいて、画面に表示中の画像に重畳するキャラクター(例えばアバター)を制御する。
<情報処理装置10のハードウェア構成>
図2は、実施例における情報処理装置10のハードウェア構成を示す概略構成図である。情報処理装置10の典型的な一例は、スマートフォンなどの携帯端末であるが、この他、ネットワークに無線又は有線接続可能な携帯端末、あるいはタブレット型端末のようなタッチパネルを搭載した電子機器など、ネットワークを使って通信しながらデータ処理しつつ画面表示可能な汎用機器なども実施形態における情報処理装置10に該当しうる。
実施形態における情報処理装置10は、例えば、図示しない矩形の薄形筐体を備え、その筐体の一方の面には、タッチパネル102が構成される。情報処理装置10では、各構成要素が主制御部150に接続されている。主制御部150は、例えば1又は複数のプロセッサである。
主制御部150には、移動体通信用アンテナ112、移動体通信部114、無線LAN通信用アンテナ116、無線LAN通信部118、記憶部120、スピーカ104、マイクロフォン106、ハードボタン108、ハードキー110及び6軸センサ111が接続されている。また、主制御部150には、さらに、タッチパネル102、カメラ130、及び外部インターフェース140が接続されている。外部インターフェース140は、音声出力端子142を含む。
タッチパネル102は、表示装置及び入力装置の両方の機能を備え、表示機能を担うディスプレイ(表示画面)102Aと、入力機能を担うタッチセンサ102Bとで構成される。ディスプレイ102Aは、例えば、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどの一般的な表示デバイスにより構成される。タッチセンサ102Bは、ディスプレイ102Aの上面に配置された接触操作を検知するための素子及びその上に積層された透明な操作面を備えて構成される。タッチセンサ102Bの接触検知方式としては、静電容量式、抵抗膜式(感圧式)、電磁誘導式など既知の方式のうちの任意の方式を採用することができる。
表示装置としてのタッチパネル102は、主制御部150によるプログラム122の実行により生成されるアプリケーションの画像を表示する。入力装置としてのタッチパネル102は、操作面に対して接触する接触物(プレイヤの指やスタイラスなどを含む。以下、「指」である場合を代表例として説明する。)の動作を検知することで、操作入力を受け付け、その接触位置の情報を主制御部150に与える。指の動作は、接触点の位置または領域を示す座標情報として検知され、座標情報は、例えば、タッチパネル102の短辺方向及び長辺方向の二軸上の座標値として表される。
記憶部120は、表示中の画像に重畳されるキャラクターに関する処理を実行するプログラム122を記憶する。この記憶部120は、情報処理装置10と別体であってもよく、例えば、SDカードやCD−RAM等の記録媒体、又は非一時的な記録媒体であってもよい。
情報処理装置10は、移動体通信用アンテナ112や無線LAN通信用アンテナ116を通じてネットワークNに接続され、処理装置20との間でデータ通信をすることが可能である。
<処理装置20の構成>
図3は、実施例における処理装置20の構成の一例を示すブロック図である。図3に示すように、処理装置20は、処理部202、送信部204、6軸センサ206、電源部208、及び各生体電極32、34、36を有する。また、各生体電極32、34、36は、例えば増幅部を介して電線を用いて処理部202に接続される。
6軸センサ206は、3軸加速度センサ及び3軸角速度センサである。また、これらの各センサは別個に設けられてもよい。6軸センサ206は、検出したセンサ信号を処理部202に出力する。
処理部202は、6軸センサ206から得られるセンサ信号や、各生体電極32、34、36から得られる眼電位信号を必要に応じて処理し、例えば、センサ信号や眼電位信号をパケット化して、このパケットを送信部204に出力する。また、処理部202は、プロセッサを含み、例えば、処理部202は、眼電位信号を用いて、瞬目に関する第1生体情報、視線移動に関する第2生体情報を算出してもよい。
また、処理部202は、6軸センサ206からのセンサ信号を用いて、頭部の動きに関する第3生体情報を算出してもよい。頭部の動きに関する情報は、例えば頭部の前後左右への動きに関する情報である。また、処理部202は、6軸センサ206から得られるセンサ信号を増幅等するだけでもよい。以下では、処理部202は、眼電位信号、センサ信号をパケット化する処理を行うものとして説明する。
送信部204は、処理部202によりパケット化された眼電位信号及び/又はセンサ信号を情報処理装置10に送信する。例えば、送信部204は、Bluetooth(登録商標)及び無線LAN等の無線通信、又は有線通信によって、眼電位信号やセンサ信号を情報処理装置10に送信する。電源部208は、処理部202、送信部204、6軸センサ206等に電力を供給する。
<情報処理装置10の構成>
次に、情報処理装置10の構成について説明する。図4は、実施例における情報処理装置10の構成の一例を示す図である。情報処理装置10は、記憶部302、通信部304、及び制御部306を有する。
記憶部302は、例えば、図2に示す記憶部120等により実現されうる。記憶部302は、一例として、キャラクターをAR(Augmented Reality)技術を用いて重畳した画像を生成するための処理を実行するアプリケーション(以下、アプリケーションAとも称す。)に関するデータ等を記憶する。アプリケーションAに関するデータは、例えば、処理装置20から受信したデータや、キャラクターの表示や制御に関する情報、キャラクターを重畳する画像データ、画面に表示される画面情報等である。キャラクターは、例えばアバターを含み、画像は、静止画像又は動画像を含む。
通信部304は、例えば移動体通信部114や無線LAN通信部118等により実現されうる。通信部304は、例えば処理装置20からデータを受信する。また、通信部304は、情報処理装置10において処理されたデータをサーバに送信したりしてもよい。すなわち、通信部304は、送信部と受信部としての機能を有する。
制御部306は、例えば主制御部150等により実現されうる。制御部306は、アプリケーションAを実行する。実施例におけるアプリケーションAは、眼電位信号及び/又はセンサ信号を取得し、それぞれの信号に基づいてユーザの眼の動き、頭部の動きを検出し、この検出結果に基づいてキャラクターの動作を制御する。また、制御部306は、制御されるキャラクターを画像に重畳し、このキャラクターを含む画像を生成し、保存する。この機能を実現するため、制御部306は、取得部312、検出部314、表示制御部316、キャラクター制御部318、及び操作検知部320を有する。
取得部312は、通信部304により受信された信号を取得する。例えば、取得部312は、ユーザの頭部に装着された他の装置(例えばアイウエア30)から眼電位信号を少なくとも取得する。
検出部314は、取得部312により取得された眼電位信号に基づいて、ユーザの眼の動きを少なくとも検出する。例えば、検出部314は、公知の技術により、眼電位信号に基づいて瞬目や視線移動などを含む眼の動きを検出する。
表示制御部316は、情報処理装置10の画面(ディスプレイ102A)に表示中の画像にキャラクターを重畳して表示制御する。画像は、ユーザにより選択された画像でもよいし、カメラ30により撮影中の画像でもよい。
キャラクター制御部318は、検出部314による眼の動きの検出結果及び/又は後述するコマンドに基づいて、キャラクターの動作を制御する。例えば、キャラクター制御部318は、検出された瞬目、視線移動に同期させて、画像に重畳されるキャラクターの瞬目、視線移動を制御する。キャラクターは、例えば、予め設定されたアバターでもよいし、ユーザにより選択されたアバターでもよい。
キャラクター制御部318は、キャラクターの動きを制御する複数の動作パラメータを有しており、ユーザの瞬目、視線移動、頭部の動きをそれぞれ、キャラクターの各動作パラメータに関連付けてもよい。この関連付けは、ユーザ操作に応じて行われてもよい。複数の動作パラメータは、例えば、キャラクターの眼の瞬目に関するパラメータ、視線移動に関するパラメータ、頭部の動きに関するパラメータ、胴体の動きに関するパラメータ、キャラクターのズームアウト、ズームインに関するパラメータ、キャラクターの手の動きに関するパラメータなどを含む。
操作検知部320は、画面上に表示されたUI部品に対するユーザの操作を検知し、このユーザ操作に応じて、各種命令を、対応する部に出力する。例えば、操作検知部320は、キャラクター選択ボタンや、キャラクターの基本動作ボタン、キャラクターの表情ボタン等の操作を検知すると、検知した操作に対応するコマンドをキャラクター制御部318に出力する。
以上より、カメラで顔を撮影することなく、キャラクターの制御を指示するユーザから取得される眼電位信号に基づいて、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。例えば、眼電位信号に基づくことで、様々な制御が可能になり、また、キャラクターの眼の動き等をより精細に制御することが可能になる。
また、取得部312は、他の装置(例えばアイウエア30)に搭載される加速度センサ及び/又は角速度センサによりセンシングされたセンサ信号を取得することを含んでもよい。この場合、検出部314は、センサ信号に基づいて、ユーザの頭の動きを検出することを含んでもよい。また、キャラクター制御部318は、ユーザの眼の動き及び頭の動きの検出結果に基づいて、キャラクターの動作を制御してもよい。
キャラクターの動作は、例えば、ユーザの瞬目、視線移動に同期させてキャラクターの瞬目、視線移動を制御することや、ユーザの頭部の動きに同期させてキャラクターの頭部の動きを制御することを含む。また、キャラクターの動作は、例えば、ユーザの瞬目、視線移動に基づきキャラクターの所定動作Aを制御する各動作パラメータを決定することや、ユーザの頭部の動きに基づいてキャラクターの所定動作Bを制御する動作パラメータを決定することを含んでもよい。
これにより、キャラクターの制御を指示するユーザの頭部の動きにも基づいて、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。例えば、眼電位信号及び頭部の動きに基づくことで、制御対象のバリエーションを増やすことが可能になる。
表示制御部316は、キャラクターの胴体に関する基本動作を選択可能なUI部品を、情報処理装置10の画面に表示制御してもよい。この場合、キャラクター制御部318は、UI部品を用いてユーザにより選択されたキャラクターの胴体に関する基本動作と、検出結果に基づくキャラクターの頭部に関する動作とに基づいて、キャラクターの動作を制御することを含んでもよい。
例えば、表示制御部316は、予め設定されたキャラクターの胴体に関する基本動作をユーザに選択させるための選択ボタンを画面に表示するように制御する。また、キャラクター制御部318は、操作検知部320により選択されたボタンに対応するコマンドに基づく基本動作を、表示中のキャラクターの胴体の基本動作に反映させるよう制御する。
これにより、キャラクターの動作について、頭部の動作と胴体の動作とに分けて、頭部の動作は、ユーザの眼の動き、頭部の動きに応じて制御しつつ、胴体の動作は、画面上のUI部品で容易に制御することが可能になる。その結果、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。
上記のとおり、生体情報計測システムを備えたアイウエア30を用いることで、アバターの頭部操作と胴体に関する操作の役割を分離することが可能である。そのため、キャラクターの身体操作インターフェースを画面上に表示することにより、複雑かつ複合的な操作でも、高価な外部ウエアラブル端末との連携を必要とせず、直感的なキャラクターの操作を可能にする。
また、表示制御部316は、撮影装置(例えばカメラ130)により撮影中の画像にキャラクターを重畳して表示制御してもよい。例えば、ユーザによりカメラ130が起動され、表示制御部316は、撮影中の画像にキャラクターを、AR技術を用いて重畳し、キャラクター制御部318は、この重畳されたキャラクターの動作を制御し、制御部306は、重畳されたキャラクターを含む画像を保存してもよい。
これにより、ユーザの眼の動き等をカメラ130で撮影する必要がないため、カメラ30は、キャラクターを重畳する画像を撮影することが可能になり、リアルタイムでの画像の撮影、キャラクターの重畳及び制御を容易に実現することができる。例えば、携帯端末のアウトカメラを用いて動画を撮影しつつ、重畳中のキャラクターの制御をインタラクティブに実行することが可能になる。
また、検出部314は、眼電位信号に基づく瞬目、又は視線移動を検出することを含んでもよい。瞬目又は視線移動の検出方法は、公知の方法を用いればよい。この場合、キャラクター制御部318は、瞬目に関連付けられた第1動作パラメータ、又は視線移動に関連付けられた第2動作パラメータに基づいてキャラクターの動作を制御することを含んでもよい。例えば、キャラクター制御部318は、ユーザの瞬目又は視線移動を、キャラクターの瞬目(第1動作パラメータ)又は視線移動(第2動作パラメータ)にリアルタイムに反映させるように制御してもよい。また、キャラクター制御部318は、ユーザの瞬目又は視線移動を、他の2つのキャラクターの動作パラメータに対応付けて制御してもよく、例えば、キャラクターの胴体の動作に関する第1動作パラメータ又は第2動作パラメータに対応付けて制御してもよい。
これにより、瞬目や視線移動などの眼電位信号から取得される検出結果を用いて、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。また、制御対象のバリエーションを増やすことが可能になる。
また、検出部314は、眼電位信号に基づく瞬目の強度、又は視線移動の速さを検出することを含んでもよい。例えば、検出部314は、眼電位信号に基づき、信号強度に複数の閾値を設けて、瞬目を複数のレベルに分けて強度を検出してもよいし、視線移動の速さについては、水平方向の移動速度に複数の閾値を設けて、視線移動を複数のレベルに分けて速さを検出してもよい。
この場合、キャラクター制御部318は、瞬目の強度に関連付けられた第3動作パラメータ、又は視線移動の速さに関連付けられた第4動作パラメータに基づいてキャラクターの動作を制御してもよい。瞬目の強度、視線移動の速さにどの動作パラメータを関連付けるかは、ユーザに事前に設定されていてもよい。キャラクター制御部318は、例えば、瞬目の強度に応じて、キャラクターの動作の大きさを変えてもよく、一例として、瞬目の強度が強いほど、キャラクターが手を振る幅が大きくなってもよい。また、キャラクター制御部318は、例えば、視線移動の速さに応じて、キャラクターの動作の速さを変えてもよく、一例として、視線移動が速いほど、キャラクターの揺れる周期が速くなってもよい。
これにより、瞬目の強度や視線移動の速さなどの眼電位信号特有のパラメータを用いて、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。また、制御対象のバリエーションを増やすことが可能になる。
また、キャラクター制御部318は、検出結果に含まれる頭部の動きに応じて、画面に対する奥行き方向のキャラクターの位置を変更することを含んでもよい。例えば、キャラクター制御部318は、情報処理装置10の画面前方(画面を視聴するユーザ側)の所定位置に仮想カメラを設定し、ユーザが頭部を前方に傾けると、キャラクターが仮想カメラに対して近づき、画面上のキャラクターのサイズが大きくなるよう制御し、ユーザが頭部を後方に傾けると、キャラクターが仮想カメラに対して離れていき、画面上のキャラクターのサイズが小さくなるように制御する。
なお、制御されるキャラクターの部位は、表示されるキャラクター全体、胴体より上の部分、又は頭部であり、予めいずれか一つが決定されていてもよいし、ユーザの頭部の傾きの程度に応じて制御されるキャラクターの部位が増えてもよい。例えば、ユーザの頭部の傾きが大きくなるにつれ、制御されるキャラクターの部位は、頭部、胴体より上の部分、表示されるキャラクター全体の順で増えてもよい。
これにより、ユーザの頭部の動きを用いて、キャラクターの遠近やサイズを制御することが可能になり、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。
また、キャラクターの動作は、所定の指示や命令を受けて、所定の動作を所定期間繰り返し実行するような、キャラクターが自動で動作する能動動作、指示を受けるたびに動作する受動動作を含んでもよい。能動動作は、例えば、ユーザにより能動動作が設定されると、ゆらゆら揺れるような一定の動きを繰り返す動作を含む。また、受動動作は、例えば、所定の指示や命令を受けて、挨拶や驚きのしぐさなどの所定の動作を実行し、次の指示や命令を受けるまで動作をしない動作を含む。
この場合、キャラクター制御部318は、検出結果に基づいて、能動動作に関するパラメータの値を決定することを含んでもよい。例えば、能動動作がゆらゆら動く動作の場合、キャラクター制御部318は、ゆらゆら動く周期に関するパラメータを、所定期間における瞬目の回数などに基づき決定するようにしてもよい。
これにより、キャラクターが自動で動作するような場合であっても、ユーザの眼の動き又は頭部の動きを用いて、ユーザの無意識な動作をキャラクターに反映させることが可能であり、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。
また、検出部314は、眼電位信号に基づき検出される瞬目に基づき、公知の技術を用いて、ユーザの集中度合、又は落ち着き度合を検出することを含んでもよい。公知の技術は、例えば、同出願人による特開2017−70602に記載の技術であり、この文献には、瞬目や視線移動を用いて集中度合(フォーカス)や落ち着き度合(カーム)を検出することが記載されている。
また、キャラクター制御部318は、検出結果に含まれる集中度合又は落ち着き度合に基づいて、キャラクターの動作を制御してもよい。例えば、キャラクター制御部318は、キャラクターの動作制御の一例として、ユーザが集中していると判定された場合、キャラクターの表情を集中している表情に変化させたり、ユーザが落ち着いていると判定された場合、キャラクターの表情をリラックスした表情に変化させたり、ユーザの集中又は落ち着きに応じてキャラクターの顔色やキャラクターを含む画面の明度や彩度を変化させたりしてもよい。
これにより、ユーザがあまり意識しない心理状態(集中、落ち着きなど)を用いて、ユーザの心理状態をキャラクターに反映させることが可能であり、インタラクティブにキャラクターを制御する際のキャラクターの動作の円滑性を向上させることができる。
また、情報処理装置10は携帯型処理端末の一例であるスマートフォンなどの携帯端末であり、他の装置はウエアラブル端末の一例であるアイウエア30であってもよい。
これにより、携帯端末はユーザが通常所有しているものであるため携帯性や汎用性が高く、眼電位信号等をセンシングしながらの移動等も可能になり、キャラクターを重畳する動画像のバリエーションを増やすことができる。例えば、携帯端末のアウトカメラを用いて動画を撮影しつつ、重畳中のキャラクターの制御をインタラクティブに実行することが可能になる。
また、キャラクター制御318は、視線移動を用いて、キャラクターを他のキャラクターに変更するようにしてもよい。例えば、キャラクター制御部318は、視線移動の移動量に閾値を設け、閾値以上の移動量の場合、画面に表示中のキャラクターを変更する。なお、事前にユーザによりキャラクター変更ボタンが押下された場合に、キャラクター制御318は、視線移動によりキャラクターを変更する処理を開始してもよい。このように、キャラクター制御部318は、ユーザの眼の動きを、キャラクターに関する様々な操作に関連付けてもよい。
これにより、ユーザの眼の動きを、キャラクターに関する様々な操作に関連付けることで、キャラクターを制御する際のユーザビリティを向上させることができる。
<画面例>
次に、実施例におけるアプリケーションAの画面例について図5〜10を用いて説明する。図5は、実施例におけるアプリケーションAの表示画面の例1を示す図である。図5に示す画面D10には、例えば、左が顔アクション(例えば5種類)の選択ボタンB10、右が体アクション(例えば27種類)の選択リボルバーB12が表示される。この画面における操作を、操作検知部320が検知することで、キャラクター制御部318は、キャラクターC10の顔の基本表情(基本動作)を決定したり、キャラクターC10の胴体に関する基本動作を決定したりする。
図6は、実施例におけるアプリケーションAの表示画面の例2を示す図である。図6に示す画面D20は、ワイプボタンで左上部にキャラクターC20がワイプ抜きされた画面例を示す。このとき、ワイプ抜きされた後であっても、キャラクター制御部318により顔と体のアクションは実行可能である。
図7は、実施例におけるアプリケーションAの表示画面の例3を示す図である。図7に示す画面D30は、右上部のボタン領域が表示され、このボタン領域から歯車ボタンB30がタップされるときの画面例を示す。歯車ボタンB30がタップされると、キャラクターを重畳する画像を選択することが可能になる。
例えば、ユーザは、静止画像を取込みたい場合、「Importphoto」をタップし、動画像を取込みたい場合、「Importvideo」をタップする。また、ユーザはアウトカメラを使用して動画像等を取得したい場合、「Usecamera」をタップする。なお、白背景は、選択対象の初期設定に含まれてもよい。また、取り込んだ写真、動画像は画面D30に自動で追加されるので、ユーザは、タップすることで、使用したい画像を選択することが可能である。
図8は、実施例におけるアプリケーションAの表示画面の例4を示す図である。図8に示す画面D40は、右上部のボタン領域が表示され、このボタン領域からヒト型ボタンB40がタップされるときの画面例を示す。この例では、ヒト型ボタンB40がタップされると、キャラクターの胴体に関する基本動作を選択することが可能になる。胴体(体)に関する基本動作は、例えば、全部で27種類用意される。例えば、ユーザは、27種類の中から12種類を選ぶと、図5に示す選択リボルバーB12に12種類の基本動作が選択可能に追加される。
なお、基本動作(アクション)は、上述したように、「能動動作」と、「受動動作」の2種類を含んでもよい。「能動動作」には、「ゆらゆら」、「行進」、「走る」、「所定の座り方」、「ゲームをする」、「空気椅子」、「ご飯を食べる」、「起立する」などを含む。「受動動作」は、基本的に「能動動作」以外の動作を含む。
図9は、実施例におけるアプリケーションAの表示画面の例5を示す図である。図9に示す画面D50は、右上部のボタン領域が表示され、このボタン領域からモデルボタンB50がタップされるときの画面例を示す。この例では、モデルボタンB50がタップされると、キャラクターのモデルを選択することが可能になる。
キャラクターのモデルは、このアプリケーションAにおいて予め設定されたデフォルトのモデルと、3Dアバター用のVRMファイルで作成されたモデルなどを含む。ユーザは、事前に所定のVRMファイルをこのアプリケーションAにインポートすることが可能である。VRMファイルがインポートされている場合、ユーザは、「Importvrm」をタップして使用することが可能である。
図10は、実施例におけるアプリケーションAの表示画面の例6を示す図である。図10に示す画面D60は、右上部のボタン領域が表示され、このボタン領域からフィルムボタンB60がタップされるときの画面例を示す。この例では、フィルムボタンB60がタップされると、ユーザが作成したキャラクターを重畳した画像データを選択し、閲覧することが可能になる。撮影した動画像や写真(静止画像)などの画像は、情報処理装置10の写真アプリ内に同時に保存されてもよい。なお、キャラクターが重畳された画像ファイルは、MP4ファイル形式で出力されるので、取出し、SNSなどにシェア、加工をすることは容易である。
<動作>
次に、実施例における情報処理システム1の各処理について説明する。図11は、実施例におけるアプリケーションAに関する処理の一例を示すシーケンス図である。
図11に示すステップS102で、制御部306は、ユーザの操作に応じてアプリケーションAを起動する。
ステップS104で、制御部306は、アイウエア30との通信を確立する。通信は、例えばBluetooth(登録商標)やWifi(登録商標)などである。
ステップS106で、アイウエア30の処理装置20は、生体電極32、34、36を用いてユーザの眼電位の計測を行う。また、処理装置20に加速度センサ/角速度センサが含まれる場合は、これらのセンサによる計測も行う。
ステップS108で、アイウエア30の処理装置20は、取得された眼電位信号及び/又はセンサ信号を情報処理装置10に送信する。
ステップS110で、情報処理装置10の取得部312は、ユーザの頭部に装着されたアイウエア30から送信された眼電位信号を取得する。また、取得部312は、ユーザの頭部の動きを示すセンサ信号を取得してもよい。
ステップS112で、情報処理装置10の検出部314は、取得された眼電位信号に基づいてユーザの眼の動きを検出する。また、検出部314は、眼の動きとして瞬目や視線移動を検出してもよく、センサ信号が取得される場合は、頭部の動き(顔に対する前後方向、顔に対する横方向、顔に対する上下方向等)を検出し、検出結果に含めてもよい。
ステップS114で、表示制御部316は、画面に表示中の画像にキャラクターを重畳して表示制御する。なお、表示される画像はユーザにより選択されてもよい。
ステップS116で、キャラクター制御部318は、ユーザの眼の動きの検出結果に基づいて、画像に重畳して表示されるキャラクターの動作を制御する。また、キャラクター制御部318は、検出結果にユーザの頭部の動きが含まれる場合は、この頭部の動きに応じてキャラクターの動作を制御してもよい。
ステップS118で、制御部306は、重畳されたキャラクターの動作を含む画像データを情報処理装置10の記憶部120に記憶する。例えば画像データは、MP4形式で保存されるがこの限りではなく、目的に応じたファイル形式で保存されればよい。
ステップS120で、制御部306は、保存され、重畳されたキャラクターを含む画像データを、SNSにアップロードしたりやメールに添付したりするため外部の装置等に出力する。
なお、図11で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。
以上、実施例によれば、インタラクティブにキャラクターを制御する際のユーザビリティを向上させることができる。また、3Dモデルが制御される場合、実施例によれば、ヒューマノイドに登録されたVRMデータモデルをインポートすることで、ユーザが所望するキャラクター(例えばアバター)を用いて画像に重畳することができる。
また、ユーザは、目と頭を動かして、画像に重畳されるキャラクターを制御することが可能になる。また、実施例によれば、ユーザは、ゲームコントローラー感覚で、キャラクターの顔と体のアクションを操作することが可能になる(例えば図5−10参照)。
また、重畳される画像に関し、携帯端末等のアウトカメラを使用した、AR合成動画像の撮影と、静止画像の撮影とが可能になる。また、既に撮影してある動画像や静止画像を背景に、キャラクター(例えばアバター)をAR合成してキャラクターを操作することが可能になる。
また、上述したキャラクター制御によれば、制御の一部を、生体情報計測システムを備えたアイウエア30に移管することで、カメラを用いない直感的な操作が可能になり、センシング、および画像を撮影する装置の携帯移動を可能にする。
また、生体情報計測システムを備えたアイウエア30を用いることで、情報処理装置10のアプリケーションAとしては、AR合成の為に編集リテラシーを必要とせず、編集が容易なUIを用いてAR合成を可能にする。
また、上述したとおり、情報処理装置10のアウトカメラを用いて画像を撮影することが可能であり、AR合成時に、画像を撮影しながら、直感的に制御可能なキャラクターを制御することが可能になる可能性がある。
また、従来のようなARを用いた鑑賞用キャラクター撮影アプリケーションではなく、ARを用いた三人称視点、かつインタラクティブな撮影用キャラクター制御アプリケーションを実現することが可能である。
なお、実施例において、アイウエア30がメガネである場合について説明した。しかし、アイウエアはこれに限定されない。アイウエアは、眼に関連する装具であればよく、メガネ、サングラス、ゴーグル及びヘッドマウントディスプレイならびにこれらのフレームなどの顔面装着具又は頭部装着具であってよい。
なお、実施例において、アイウエア30に搭載された6軸センサからのセンサ信号を用いて説明したが、情報処理装置10に搭載された6軸センサ111からのセンサ信号を用いても、実施例において説明したアプリケーションを実行することが可能である。すなわち、6軸センサは頭部だけではなく、人体のいずれかの位置に装着されていればよい。
以上、本発明について実施例を用いて説明したが、本発明の技術的範囲は上記実施例に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10 情報処理装置
20 処理装置
30 アイウエア
302 記憶部
304 通信部
306 制御部
312 取得部
314 検出部
316 表示制御部
318 キャラクター制御部
320 操作検知部

Claims (13)

  1. 情報処理装置に、
    ユーザの頭部に装着された他の装置から眼電位信号を少なくとも取得し、
    前記眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、
    画面に表示中の画像にキャラクターを重畳して表示制御し、
    前記眼の動きの検出結果に基づいて、前記キャラクターの動作を制御する、処理を実行させる、プログラム。
  2. 前記取得することは、
    前記他の装置に搭載される加速度センサ及び/又は角速度センサによりセンシングされたセンサ信号を取得することを含み、
    前記検出することは、
    前記センサ信号に基づいて、前記ユーザの頭の動きを検出することを含み、
    前記動作を制御することは、
    前記眼の動き及び前記頭の動きの検出結果に基づいて、前記キャラクターの動作を制御することを含む、請求項1に記載のプログラム。
  3. 前記表示制御することは、
    前記キャラクターの胴体に関する基本動作を選択可能なUI部品を、前記画面に表示制御することを含み、
    前記動作を制御することは、
    前記UI部品を用いて選択された前記キャラクターの胴体に関する基本動作と、前記検出結果に基づく前記キャラクターの頭部に関する動作とに基づいて、前記キャラクターの動作を制御することを含む、請求項1又は2に記載のプログラム。
  4. 前記表示制御することは、
    撮影装置により撮影中の画像に前記キャラクターを重畳して表示制御することを含む、請求項1乃至3のいずれか一項に記載のプログラム。
  5. 前記検出することは、
    前記眼電位信号に基づく瞬目、又は視線移動を検出することを含み、
    前記動作を制御することは、
    前記瞬目に関連付けられた第1動作パラメータ、又は前記視線移動に関連付けられた第2動作パラメータに基づいて前記キャラクターの動作を制御することを含む、請求項1乃至4のいずれか一項に記載のプログラム。
  6. 前記検出することは、
    前記眼電位信号に基づく瞬目の強度、又は視線移動の速さを検出することを含み、
    前記動作を制御することは、
    前記瞬目の強度に関連付けられた第3動作パラメータ、又は前記視線移動の速さに関連付けられた第4動作パラメータに基づいて前記キャラクターの動作を制御することを含む、請求項1乃至5のいずれか一項に記載のプログラム。
  7. 前記動作を制御することは、
    前記検出結果に含まれる前記頭の動きに応じて、前記画面に対する奥行き方向の前記キャラクターの位置を変更することを含む、請求項2に記載のプログラム。
  8. 前記キャラクターの動作は、自動で動作する能動動作を含み、
    前記動作を制御することは、
    前記検出結果に基づいて、前記能動動作に関するパラメータの値を決定することを含む、請求項1乃至7のいずれか一項に記載のプログラム。
  9. 前記検出することは、
    前記眼電位信号に基づき検出される瞬目を用いて、ユーザの集中度合、又は落ち着き度合を検出することを含み、
    前記動作を制御することは、
    前記検出結果に含まれる前記集中度合又は前記落ち着き度合に基づいて、前記キャラクターの動作を制御することを含む、請求項1乃至8のいずれか一項に記載のプログラム。
  10. 前記情報処理装置は携帯端末であり、前記他の装置はアイウエアである、請求項1乃至9のいずれか一項に記載のプログラム。
  11. 情報処理装置が、
    ユーザの頭部に装着された他の装置から眼電位信号を少なくとも取得し、
    前記眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、
    画面に表示中の画像にキャラクターを重畳して表示制御し、
    前記眼の動きの検出結果に基づいて、前記キャラクターの動作を制御する、処理を実行する、情報処理方法。
  12. 1又は複数のプロセッサを含む情報処理装置であって、
    前記1又は複数のプロセッサが、
    ユーザの頭部に装着された他の装置から眼電位信号を少なくとも取得し、
    前記眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、
    画面に表示中の画像にキャラクターを重畳して表示制御し、
    前記眼の動きの検出結果に基づいて、前記キャラクターの動作を制御する、処理を実行する、情報処理装置。
  13. データ通信可能に接続されるアイウエアと情報処理装置とを含む情報処理システムであって、
    前記アイウエアは、
    複数の生体電極と、
    前記複数の生体電極から取得される眼電位信号を前記情報処理装置に送信する送信部と、を備え、
    前記情報処理装置は、
    前記アイウエアから前記眼電位信号を少なくとも受信する通信部と、
    前記眼電位信号に基づいてユーザの眼の動きを少なくとも検出し、画面に表示中の画像にキャラクターを重畳して表示制御し、前記眼の動きの検出結果に基づいて、前記キャラクターの動作を制御する制御部と、を備える、情報処理システム。
JP2020081843A 2020-05-07 2020-05-07 プログラム、情報処理方法、情報処理装置、及び情報処理システム Active JP7529242B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020081843A JP7529242B2 (ja) 2020-05-07 2020-05-07 プログラム、情報処理方法、情報処理装置、及び情報処理システム
TW110115907A TW202142296A (zh) 2020-05-07 2021-05-03 程式、資訊處理方法、資訊處理裝置、及資訊處理系統
US17/313,423 US20210349533A1 (en) 2020-05-07 2021-05-06 Information processing method, information processing device, and information processing system
CN202110497110.3A CN113617023A (zh) 2020-05-07 2021-05-07 程序、信息处理方法、信息处理装置以及信息处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020081843A JP7529242B2 (ja) 2020-05-07 2020-05-07 プログラム、情報処理方法、情報処理装置、及び情報処理システム

Publications (2)

Publication Number Publication Date
JP2021177277A true JP2021177277A (ja) 2021-11-11
JP7529242B2 JP7529242B2 (ja) 2024-08-06

Family

ID=78377968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081843A Active JP7529242B2 (ja) 2020-05-07 2020-05-07 プログラム、情報処理方法、情報処理装置、及び情報処理システム

Country Status (4)

Country Link
US (1) US20210349533A1 (ja)
JP (1) JP7529242B2 (ja)
CN (1) CN113617023A (ja)
TW (1) TW202142296A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126500A (ja) * 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2017070602A (ja) * 2015-10-08 2017-04-13 株式会社ジェイアイエヌ 情報処理方法、情報処理装置及びプログラム
JP2018163617A (ja) * 2017-03-27 2018-10-18 株式会社ローレル・コード 情報処理装置を用いた仮想現実システムにおける視線認識を用いたコンテンツ管理方法およびプログラムと仮想現実システム装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126500A (ja) * 2014-12-26 2016-07-11 Kddi株式会社 ウェアラブル端末装置およびプログラム
JP2017070602A (ja) * 2015-10-08 2017-04-13 株式会社ジェイアイエヌ 情報処理方法、情報処理装置及びプログラム
JP2018163617A (ja) * 2017-03-27 2018-10-18 株式会社ローレル・コード 情報処理装置を用いた仮想現実システムにおける視線認識を用いたコンテンツ管理方法およびプログラムと仮想現実システム装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"まばたき・視線でデバイス操作、「JINS MEME」がアプリ開発プラットフォーム", ケータイ WATCH [ONLINE], JPN6023040248, 15 December 2016 (2016-12-15), ISSN: 0005162801 *

Also Published As

Publication number Publication date
CN113617023A (zh) 2021-11-09
JP7529242B2 (ja) 2024-08-06
US20210349533A1 (en) 2021-11-11
TW202142296A (zh) 2021-11-16

Similar Documents

Publication Publication Date Title
US10620699B2 (en) Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
US10416835B2 (en) Three-dimensional user interface for head-mountable display
EP3341818B1 (en) Method and apparatus for displaying content
KR101920983B1 (ko) 헤드 마운트형 디스플레이 상에서의 정보의 디스플레이
KR20220070292A (ko) 자동화된 안경류 디바이스 공유 시스템
KR20120023247A (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법
KR102110208B1 (ko) 안경형 단말기 및 이의 제어방법
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
US20230384907A1 (en) Methods for relative manipulation of a three-dimensional environment
EP3109734A1 (en) Three-dimensional user interface for head-mountable display
US20230359422A1 (en) Techniques for using in-air hand gestures detected via a wrist-wearable device to operate a camera of another device, and wearable devices and systems for performing those techniques
EP3702008A1 (en) Displaying a viewport of a virtual space
JP7529242B2 (ja) プログラム、情報処理方法、情報処理装置、及び情報処理システム
US11768546B1 (en) Method and device for positional/rotational information of a finger-wearable device
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
WO2021220407A1 (ja) ヘッドマウントディスプレイ装置および表示制御方法
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240257486A1 (en) Techniques for interacting with virtual avatars and/or user representations
US20240281108A1 (en) Methods for displaying a user interface object in a three-dimensional environment
US20240104819A1 (en) Representations of participants in real-time communication sessions
US20240265796A1 (en) Devices, methods, and graphical user interfaces for device position adjustment
US20240320930A1 (en) Devices, methods, and graphical user interfaces for capturing media with a camera application
US20240103636A1 (en) Methods for manipulating a virtual object
US20240289007A1 (en) Devices, methods, and graphical user interfaces for adjusting device settings
KR20120016386A (ko) 3d 객체 표시가 가능한 휴대용 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240718

R150 Certificate of patent or registration of utility model

Ref document number: 7529242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150