JP7259838B2 - 情報処理装置、情報処理方法、および記録媒体 - Google Patents
情報処理装置、情報処理方法、および記録媒体 Download PDFInfo
- Publication number
- JP7259838B2 JP7259838B2 JP2020505604A JP2020505604A JP7259838B2 JP 7259838 B2 JP7259838 B2 JP 7259838B2 JP 2020505604 A JP2020505604 A JP 2020505604A JP 2020505604 A JP2020505604 A JP 2020505604A JP 7259838 B2 JP7259838 B2 JP 7259838B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- display object
- control unit
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/002—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/10—Details of earpieces, attachments therefor, earphones or monophonic headphones covered by H04R1/10 but not provided for in any of its subgroups
- H04R2201/107—Monophonic and stereophonic headphones with microphone for two-way hands free communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
1.本開示の一実施形態による情報処理システムの概要
2.構成
2-1.情報処理端末10の構成
2-2.サーバ20の構成
3.動作処理
4.補足
5.まとめ
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。本実施形態による情報処理システム1は、空間Aに存在するユーザAと、空間Bに存在するユーザBとのコミュニケーションを実現するものであって、例えば図1に示すように、空間Aに存在するユーザAの頭部に装着される入出力機能を有するHMD(Head Mounted Display)等により実現される情報処理端末10Aと、空間Bに存在するユーザBの頭部に装着されるHMD等により実現される情報処理端末10Bとを含む。情報処理システム1は、さらに、ユーザを含む空間内の映像(部屋の様子など)を撮像する外部カメラ12を含んでいてもよい。また、本実施形態による情報処理システム1は、情報処理端末10Aおよび情報処理端末10Bと、ネットワークを介して接続するサーバ20をさらに含み得る。
<2-1.情報処理端末10の構成>
図4は、本実施形態による情報処理端末10の構成の一例を示すブロック図である。図4に示すように、情報処理端末10は、制御部100、入力部110、操作I/F(インタフェース)120、出力部130、通信部140、および記憶部150を有する。
制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理端末10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
入力部110は、空間情報を入力する機能を有する。例えば入力部110は、カメラ111、マイクロフォン(以下、マイクと称する)112、および視線センサ113を含む。カメラ111は、例えばHMDに設けられる外向きカメラであって、周辺の映像を撮像する。カメラ111は複数設けられていてもよい。マイク112は、周囲の音声を取得する。マイク112は、複数から成るマイクアレイであってもよい。
操作I/F120は、ユーザからの操作入力を受け付け、制御部100へ出力する。操作I/F120は、キーボード、マウス、タッチパネル、ボタン、スイッチ等により実現され得る。
出力部130は、制御部100から出力される各種情報をユーザに提示する機能を有する。例えば出力部130は、ディスプレイ131およびスピーカ132を有する。ディスプレイ131は、相手ユーザ(遠隔地空間に存在するユーザ)の映像を表示する。スピーカ132は、相手ユーザの音声を再生する。
通信部140は、ネットワーク30を介して他の情報処理端末10やサーバ20と接続し、データの送受信を行う。例えば通信部140は、カメラ111により撮像された撮像画像、およびマイク112により収音された音声データを、通信先の情報処理端末10やサーバ20へ送信する。また、通信部140は、通信先の情報処理端末10やサーバ20から、映像や音声データ等を受信する。
記憶部150は、制御部100が各機能を実行するためのプログラムやパラメータを格納するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、本実施形態による記憶部150は、通信部140を介して送受信されるデータを記憶してもよい。
図5は、本実施形態によるサーバ20の構成の一例を示すブロック図である。図5に示すように、サーバ20(情報処理装置)は、制御部200、通信部210、ユーザDB(データベース)220、および装飾ルールDB230を有する。
制御部200は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ20内の動作全般を制御する。制御部200は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部200は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
例えば、装飾制御部201は、コミュニケーション相手(例えば図1に示すユーザB)が存在する相手空間(例えば図1に示す空間B)における表示装置(例えばディスプレイ131)に表示される、ユーザ空間(例えば図1に示す空間A)に対応付けられた表示オブジェクト(例えば空間Aに存在する実オブジェクトの撮像画像)に対する相手の注視状態が非注視状態に移った際に、表示オブジェクトの外観を変化させる制御を行う。相手が見ていない間に変化させることで、相手に悟られずに装飾することが可能となる。なお、相手の注視状態および非注視状態は、後述する注視状態判定部202により判定される。
また、装飾制御部201は、コミュニケーション相手が以前に表示オブジェクト(または実オブジェクト)を見たときからの経過時間に応じて、外観変化の変化量を制御してもよい。例えば経過時間が所定値より長い場合、相手にとって表示オブジェクトは見慣れない物であり、また、以前に見た印象を強く持っている可能性もあるため、変化や以前との差に気付き易いと考えられる。このため、装飾制御部201は、より時間をかけてゆっくりと表示オブジェクトの外観を変化させる。
人によっては、変化に敏感な人もいれば、特定の特性についてこだわりや興味があるため変化に気付き易い人がいることも考えられる。このような想定を鑑み、装飾制御部201は、個人の特徴に合わせて表示オブジェクトの変化の度合い(変化量)を調整するようにしてもよい。各ユーザの趣味嗜好や変化への敏感さ等の情報は、ユーザDB220から取得され得る。制御部200は、ユーザの普段の発言やコミュニケーション時における視線移動等からユーザの興味やこだわりを推定し、ユーザDB220に格納してもよい。例えば、頻繁に髪形や服装の変化に言及している場合、「髪形や服装の変化に敏感な人」、「髪形や服装に興味のある人」と推定できる。また、インテリアなど空間内の物体に頻繁に言及している場合、「インテリアなどの変化に敏感な人」と推定できる。また、コミュニケーション開始時や対話時に服装や周囲を注視する頻度が一定以上である場合、服装や周囲の変化に敏感な人と推定できる。また、何に興味があるか、趣味嗜好等についてユーザ情報として予め各ユーザに入力させるようにしてもよい。
装飾制御部201は、装飾を行う表示オブジェクトの色や形などによって目立ちやすい変化が起こりやすい箇所を予め予測し、カメラアングルや背景を動的に変化させることで変化を目立たなくしたり、表示オブジェクトを画角に含まないようにしたりすることも可能である。
装飾制御部201は、上述したように、表示オブジェクトを徐々に変化させることで、境界面の変化が目立つことを避け、コミュニケーション相手に変化を悟られないようにする。また、装飾制御部201は、表示オブジェクトの境界面から中央に向けて徐々に変化させることで表示オブジェクトの変化が目立つことを避けるようにしてもよい。
続いて、装飾制御部201による装飾制御の条件(どのような場合に装飾制御を行うか)の一例について説明する。
例えば、装飾制御部201は、ユーザが日常的にネットワークを介したコミュニケーションを行っている相手に対して普段と異なる状況になっていた場合(例えば、部屋が散らかっている、体調が悪く顔色が悪い、化粧をしていない、身支度が整っていない等)、装飾を行う。装飾制御部201は、ネットワークを介したコミュニケーションを行う際に、コミュニケーション相手に提示されるユーザ側の映像を分析し、一定の傾向(ユーザの普段の傾向)から一定以上外れているか否かを判断し、外れている場合は装飾を行うようにしてもよい。すなわち、普段は綺麗な状態でコミュニケーションを行っているが、その時だけは部屋が散らかっている状態になっていた場合、一定の傾向(物体が整頓されている状況)から外れるため、装飾が必要な状況であると判断し、装飾制御部201は、普段の傾向に合わせるよう表示オブジェクトの装飾を行う。
装飾制御部201は、ユーザが現実空間で実際にコミュニケーション相手と会っている場合と異なる状況になっていた場合(例えば会社ではきちんとした身なりで、化粧を行っているのに対し、テレワークにより自宅から会社に繋げた際には、髪の毛に寝癖がついていたり、化粧をしていなかったりした場合など)、装飾を行う。装飾制御部201は、例えばユーザの外出時の身なりや顔画像を記録し、ネットワークコミュニケーション時にユーザの姿が普段の傾向から外れているか否かを判断し、装飾要否を判断してもよい。また、装飾制御部201は、ユーザの身支度が、設定された所定の身支度基準(例えば、化粧の有無や、部屋着と外出着の登録など)を満たすか否かに基づいて、装飾要否を判断してもよい。
装飾制御部201は、ネットワークコミュニケーションの目的(業務またはプライベートなど)と、ユーザ又はユーザが存在する空間の状態が一致していない場合、装飾を行うようにしてもよい。目的に一致する状態に関する情報は、装飾ルールとして予め設定され得るが、例えば業務目的のネットワークコミュニケーションの場合は、パーカーやスウェット、ジャージ等は相応しくないため、襟付きのシャツやニットなど他の服装に変化させるといった服装に関するルールなどが想定される。
通信部210は、有線又は無線によりネットワーク30と接続し、ネットワーク30を介して各情報処理端末10とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、又はWi-Fi(Wireless Fidelity、登録商標)等によりネットワーク30と通信接続する。
ユーザDB220は、ユーザに関連する情報を蓄積する。例えばユーザのコミュニケーション履歴(発話音声、映像、コミュニケーション相手、コミュニケーション目的等)、コミュ二ケーション時におけるユーザの服装や化粧、周辺の様子の傾向、ユーザの趣味嗜好、こだわり、特性(変化に対する敏感さなど)が蓄積される。
装飾ルールDB230は、本実施形態による装飾をどのような条件で行うかを規定するルールが蓄積されている。
続いて、本実施形態による動作処理について図7を参照して説明する。図7は、本実施形態に係る動作処理における装飾制御の流れの一例を示すフローチャートである。
続いて、本実施形態についていくつか補足を行う。
装飾制御部201は、ユーザの顔や物体の装飾に限定されず、ユーザの動作の特徴や癖を消すことも可能である。例えば、装飾制御部201は、髪をいじる、爪をいじる、腕組み、貧乏揺すり等の動作を消して、手を下ろした状態に変化させてもよい。手を下ろした状態への変化は、ユーザの前後の動作と自然に繋がるよう制御することが好ましい。また、舌打ち、口癖などを、生活音やノイズなどで隠すようにしてもよい。
コミュニケーション相手の注意を逸らす手法として誘導オブジェクトを提示する場合について上述したが、本実施形態はこれに限定されず、例えば対象物と離隔した位置に音像定位した音声情報を出力するようにしてもよい。例えば、コミュニケーション相手が使用している情報処理端末がHMD等のウェアラブルデバイスの場合、空間定位させた音により表示オブジェクトと異なる方向にアテンションを取ることも可能である。
装飾制御部201は、表示オブジェクトを変化する際に調光を制御し、変化が見え難いようにしてもよい。例えば表示オブジェクトの変化時は蛍光灯の光から間接照明の色合いの光に画面全体を変化させて変化が目立たないようにしてもよい。また、装飾制御部201は、表示オブジェクトを装飾する代わりに表示オブジェクトの領域を調光して見え難くしてもよい。
装飾制御部201は、表示オブジェクトの重要度に応じて、徐々に変化させるかすぐに変化させるかを判断してもよい。例えば機密書類は重要度が高いため、相手に多少不自然に思われてもすぐに隠蔽する(すぐに変化させる)ことが好ましい。
上述したように、本開示の実施形態による情報処理システムでは、コミュニケーション相手に悟られずに(違和感を持たれずに)、実空間の表示を変化させる(実空間に存在する人物や物体に仮想的な装飾を施して都合の悪い部分を隠す)ことが可能となる。
(1)
第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備える、情報処理装置。
(2)
前記表示制御部は、前記注視状態から前記非注視状態に移る毎に、前記表示オブジェクトの外観を段階的に変化させる、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記表示オブジェクトの外観の変化量を、時間経過に応じて徐々に大きくする、前記(1)に記載の情報処理装置。
(4)
前記表示制御部は、
前記第1のユーザの視線を誘導する誘導領域を前記表示オブジェクトと離隔した位置に出力する制御を行った後、
前記表示オブジェクトに対して前記第1のユーザが前記非注視状態の際に、前記表示オブジェクトの外観を変化させる、前記(1)又は(2)に記載の情報処理装置。
(5)
前記誘導領域の生成は、
前記表示オブジェクトと離隔した位置における誘導オブジェクトの表示、または、前記表示オブジェクトと離隔した領域の誘目性を高める制御である、前記(4)に記載の情報処理装置。
(6)
前記情報処理装置は、
前記表示オブジェクトと離隔した位置に音像定位した音声情報を出力する音声制御部をさらに備え、
前記表示制御部は、
前記音声情報が出力された後、前記表示オブジェクトに対して前記第1のユーザが前記非注視状態の際に、前記表示オブジェクトの外観を変化させる、前記(1)~(3)のいずれか1項に記載の情報処理装置。
(7)
前記判定部は、
前記第1のユーザの視線、顔、又は頭部の向きに基づいて、前記表示オブジェクトに対する前記第1のユーザの前記注視状態又は非注視状態を判定する、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)
前記表示制御部は、
前記第1のユーザが変化を認識し難いと推定される部分から変化させる、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
前記表示制御部は、
複数の前記表示オブジェクトのうち、誘目性の低い表示オブジェクトから順に変化させる、前記(8)に記載の情報処理装置。
(10)
前記表示制御部は、
複数の前記表示オブジェクトのうち、前記第1のユーザの注視点から空間上の距離が長い領域から変化させる、前記(8)に記載の情報処理装置。
(11)
前記表示制御部は、
前記表示オブジェクトが人物の場合、顔以外の部分から変化させる、前記(8)に記載の情報処理装置。
(12)
前記表示制御部は、
前記表示オブジェクトが人物以外の場合、前記表示装置によって表示する画角の端の部分から変化させる、前記(8)に記載の情報処理装置。
(13)
前記表示制御部は、
前記表示オブジェクトが、前記第1のユーザにより見慣れたものであるか否かに応じて、変化量を制御する、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
前記表示オブジェクトは、前記第2の実空間で撮像された実オブジェクトである、前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
前記表示制御部は、
前記第1のユーザの変化に対する感度の高さに応じて、前記表示オブジェクトの変化量を調整する、前記(1)~(14)のいずれか1項に記載の情報処理装置。
(16)
前記表示制御部は、
前記実オブジェクトの外観が一定の傾向から外れる状態にある場合、前記表示オブジェクトを前記一定の傾向を満たすよう外観を変化させる制御を行う、前記(14)に記載の情報処理装置。
(17)
プロセッサが、
第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定することと、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させることと、
を含む、情報処理方法。
(18)
コンピュータを、
第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
として機能させるためのプログラムが記録された、記録媒体。
10 情報処理端末
20 サーバ
30 ネットワーク
100 制御部
101 視線認識部
102 音声制御部
103 表示制御部
110 入力部
111 カメラ
112 マイクロフォン
113 視線センサ
120 操作I/F(インタフェース)
130 出力部
131 ディスプレイ
132 スピーカ
140 通信部
150 記憶部
200 制御部
201 装飾制御部
202 注視状態判定部
210 通信部
220 ユーザDB
230 装飾ルールDB
Claims (15)
- 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示制御部は、前記注視状態から前記非注視状態に移る毎に、前記表示オブジェクトの外観を段階的に変化させる、
情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示制御部は、
前記第1のユーザの視線を誘導する誘導領域を前記表示オブジェクトと離隔した位置に出力する制御を行った後、
前記表示オブジェクトに対して前記第1のユーザが前記非注視状態の際に、前記表示オブジェクトの外観を変化させる、
情報処理装置。 - 前記誘導領域の生成は、
前記表示オブジェクトと離隔した位置における誘導オブジェクトの表示、または、前記表示オブジェクトと離隔した領域の誘目性を高める制御である、請求項2に記載の情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
前記表示オブジェクトと離隔した位置に音像定位した音声情報を出力する音声制御部と、
を備え、
前記表示制御部は、
前記音声情報が出力された後、前記表示オブジェクトに対して前記第1のユーザが前記非注視状態の際に、前記表示オブジェクトの外観を変化させる、
情報処理装置。 - 前記判定部は、
前記第1のユーザの視線、顔、又は頭部の向きに基づいて、前記表示オブジェクトに対する前記第1のユーザの前記注視状態又は非注視状態を判定する、請求項1に記載の情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示制御部は、
前記第1のユーザが変化を認識し難いと推定される部分から変化させる、
情報処理装置。 - 前記表示制御部は、
複数の前記表示オブジェクトのうち、誘目性の低い表示オブジェクトから順に変化させる、請求項6に記載の情報処理装置。 - 前記表示制御部は、
複数の前記表示オブジェクトのうち、前記第1のユーザの注視点から空間上の距離が長い領域から変化させる、請求項6に記載の情報処理装置。 - 前記表示制御部は、
前記表示オブジェクトが人物の場合、顔以外の部分から変化させる、請求項6に記載の情報処理装置。 - 前記表示制御部は、
前記表示オブジェクトが人物以外の場合、前記表示装置によって表示する画角の端の部分から変化させる、請求項6に記載の情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示制御部は、
前記表示オブジェクトが、前記第1のユーザにより見慣れたものであるか否かに応じて、変化量を制御する、
情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示制御部は、
前記第1のユーザの変化に対する感度の高さに応じて、前記表示オブジェクトの変化量を調整する、
情報処理装置。 - 第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
を備え、
前記表示オブジェクトは、前記第2の実空間で撮像された実オブジェクトであり、
前記表示制御部は、
前記実オブジェクトの外観が一定の傾向から外れる状態にある場合、前記表示オブジェクトを前記一定の傾向を満たすよう外観を変化させる制御を行う、
情報処理装置。 - プロセッサが、
第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定することと、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させることと、
を含み、
前記注視状態から前記非注視状態に移る毎に、前記表示オブジェクトの外観を段階的に変化させることをさらに含む、
情報処理方法。 - コンピュータを、
第1の実空間に存在する第1のユーザの表示装置によって表示される、前記第1の実空間とは異なる第2の実空間に対応付けられた表示オブジェクトに対する前記第1のユーザの注視状態又は非注視状態を判定する判定部と、
前記注視状態から前記非注視状態に移った際、前記表示オブジェクトの外観を変化させる表示制御部と、
として機能させるためのプログラムが記録された、記録媒体であって、
前記表示制御部は、前記注視状態から前記非注視状態に移る毎に、前記表示オブジェクトの外観を段階的に変化させる、
記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045141 | 2018-03-13 | ||
JP2018045141 | 2018-03-13 | ||
PCT/JP2018/048394 WO2019176236A1 (ja) | 2018-03-13 | 2018-12-28 | 情報処理装置、情報処理方法、および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019176236A1 JPWO2019176236A1 (ja) | 2021-03-25 |
JP7259838B2 true JP7259838B2 (ja) | 2023-04-18 |
Family
ID=67907167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505604A Active JP7259838B2 (ja) | 2018-03-13 | 2018-12-28 | 情報処理装置、情報処理方法、および記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11417296B2 (ja) |
JP (1) | JP7259838B2 (ja) |
CN (1) | CN111819518B (ja) |
WO (1) | WO2019176236A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020129115A1 (ja) * | 2018-12-17 | 2021-11-04 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理方法およびコンピュータプログラム |
WO2021182126A1 (ja) * | 2020-03-09 | 2021-09-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
WO2021200152A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 |
JP2021192157A (ja) * | 2020-06-05 | 2021-12-16 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及びプログラム |
CN116507997A (zh) * | 2020-09-11 | 2023-07-28 | 苹果公司 | 在环境中显示用户界面的方法及对应电子设备和计算机可读存储介质 |
JPWO2022107582A1 (ja) * | 2020-11-18 | 2022-05-27 | ||
CN112415783B (zh) * | 2021-01-19 | 2021-04-06 | 北京佳珥医学科技有限公司 | 一种美瞳式ar眼镜 |
US11706381B2 (en) | 2021-05-24 | 2023-07-18 | Getac Technology Corporation | Selective obfuscation of objects in media content |
WO2023176389A1 (ja) * | 2022-03-15 | 2023-09-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び記録媒体 |
CN117111734A (zh) * | 2023-07-04 | 2023-11-24 | 深圳云天励飞技术股份有限公司 | 道路病害的vr显示方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060268101A1 (en) | 2005-05-25 | 2006-11-30 | Microsoft Corporation | System and method for applying digital make-up in video conferencing |
JP2014532206A (ja) | 2011-09-08 | 2014-12-04 | インテル・コーポレーション | インタラクティブな画面閲覧 |
JP2016532178A (ja) | 2013-06-08 | 2016-10-13 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7227567B1 (en) * | 2004-09-14 | 2007-06-05 | Avaya Technology Corp. | Customizable background for video communications |
US8253770B2 (en) | 2007-05-31 | 2012-08-28 | Eastman Kodak Company | Residential video communication system |
JP2011203446A (ja) * | 2010-03-25 | 2011-10-13 | Fujifilm Corp | ヘッドマウントディスプレイ装置 |
JP2012175136A (ja) | 2011-02-17 | 2012-09-10 | Nec Corp | カメラシステムおよびその制御方法 |
JP2012213013A (ja) | 2011-03-31 | 2012-11-01 | Nippon Telegr & Teleph Corp <Ntt> | Tv会議システム |
JP6056178B2 (ja) | 2012-04-11 | 2017-01-11 | ソニー株式会社 | 情報処理装置、表示制御方法及びプログラム |
US8917238B2 (en) * | 2012-06-28 | 2014-12-23 | Microsoft Corporation | Eye-typing term recognition |
US9124762B2 (en) | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
EP2988275A4 (en) * | 2013-04-16 | 2016-11-30 | Sony Corp | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD, DISPLAY DEVICE AND DISPLAY METHOD AND INFORMATION PROCESSING SYSTEM |
CN103927778B (zh) * | 2013-05-31 | 2017-04-19 | 深圳信息职业技术学院 | 一种虚拟人环境感知的仿真方法及系统 |
US10019057B2 (en) * | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
WO2015116183A2 (en) | 2014-01-31 | 2015-08-06 | Empire Technology Development, Llc | Subject selected augmented reality skin |
US9227736B2 (en) * | 2014-03-07 | 2016-01-05 | Honeywell International Inc. | Methods and apparatus for determining pilot awareness of a system-initiated change based on scanning behavior |
KR20150145616A (ko) * | 2014-06-20 | 2015-12-30 | 엘지전자 주식회사 | 디스플레이 장치 및 그의 동작 방법 |
US10832479B2 (en) * | 2015-06-15 | 2020-11-10 | Sony Corporation | Information processing apparatus, information processing method, and program |
KR102610120B1 (ko) * | 2016-01-20 | 2023-12-06 | 삼성전자주식회사 | Hmd 디바이스 및 그 제어 방법 |
US10395428B2 (en) * | 2016-06-13 | 2019-08-27 | Sony Interactive Entertainment Inc. | HMD transitions for focusing on specific content in virtual-reality environments |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
-
2018
- 2018-12-28 US US16/978,267 patent/US11417296B2/en active Active
- 2018-12-28 WO PCT/JP2018/048394 patent/WO2019176236A1/ja active Application Filing
- 2018-12-28 CN CN201880090823.4A patent/CN111819518B/zh active Active
- 2018-12-28 JP JP2020505604A patent/JP7259838B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060268101A1 (en) | 2005-05-25 | 2006-11-30 | Microsoft Corporation | System and method for applying digital make-up in video conferencing |
JP2014532206A (ja) | 2011-09-08 | 2014-12-04 | インテル・コーポレーション | インタラクティブな画面閲覧 |
JP2016532178A (ja) | 2013-06-08 | 2016-10-13 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイにおいて、透過モードと非透過モードとの間を移行するシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111819518B (zh) | 2024-08-06 |
US20200410960A1 (en) | 2020-12-31 |
JPWO2019176236A1 (ja) | 2021-03-25 |
WO2019176236A1 (ja) | 2019-09-19 |
CN111819518A (zh) | 2020-10-23 |
US11417296B2 (en) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7259838B2 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
JP7565368B2 (ja) | コンピュータ生成体験を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース | |
US11900527B2 (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
KR102553190B1 (ko) | 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어 | |
US20220092862A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240012601A1 (en) | Wearable device for facilitating enhanced interaction | |
Dinică | Non-verbal communication-indispensable complement of oral and written communication | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
US20240005623A1 (en) | Positioning content within 3d environments | |
WO2021210585A1 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
US12112441B2 (en) | Content transformations based on reflective object recognition | |
JP7398655B2 (ja) | コンピュータプログラム、サーバ装置、端末装置、及び方法 | |
JP7295478B1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240103608A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
US20240153205A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
Kan | Dancing Alone. | |
WO2023043647A1 (en) | Interactions based on mirror detection and context awareness | |
CN117333788A (zh) | 基于反射对象识别的内容转换 | |
JP2024127033A (ja) | プログラム及びシステム | |
JP2024046864A (ja) | 情報処理装置および恐怖症改善支援方法 | |
JP2024046865A (ja) | 情報処理装置および恐怖症改善支援方法 | |
JP2024046867A (ja) | 情報処理装置および恐怖症改善支援方法 | |
CN117331434A (zh) | 在3d环境内定位内容 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230320 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7259838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |