JP2022051981A - データ処理装置、表示制御方法 - Google Patents

データ処理装置、表示制御方法 Download PDF

Info

Publication number
JP2022051981A
JP2022051981A JP2019025718A JP2019025718A JP2022051981A JP 2022051981 A JP2022051981 A JP 2022051981A JP 2019025718 A JP2019025718 A JP 2019025718A JP 2019025718 A JP2019025718 A JP 2019025718A JP 2022051981 A JP2022051981 A JP 2022051981A
Authority
JP
Japan
Prior art keywords
data processing
processing device
control unit
learning
partial region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019025718A
Other languages
English (en)
Inventor
嘉人 大木
Yoshito Oki
笑佳 金子
Emika KANEKO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2019025718A priority Critical patent/JP2022051981A/ja
Priority to PCT/JP2020/003602 priority patent/WO2020166372A1/ja
Publication of JP2022051981A publication Critical patent/JP2022051981A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】学習の成熟度をユーザが直感的に理解できるようにする。【解決手段】本技術の一側面に係るデータ処理装置は、点と線とで構成された格子を表示画面に表示させ、格子全体のうち、対象物を表現する部分領域の粗密状態を、対象物の学習の成熟度に応じて変更する。本技術は、ユーザの動作に応じて表示を切り替えるディスプレイに適用することができる。【選択図】図1

Description

本技術は、データ処理装置、表示制御方法に関し、特に、学習の成熟度をユーザが直感的に理解できるようにしたデータ処理装置、表示制御方法に関する。
従来、深層学習などを用いて得られた人工知能を搭載した装置(人工知能搭載装置)が様々な分野で利用されている。
特開2017-182129号公報 特開2017-194782号公報
しかしながら、人工知能搭載装置に搭載された人工知能の学習の度合いを表す成熟度が、ユーザが直感的に理解しやすいような形態で提示されていない。
例えば、人工知能搭載装置がどの程度学習しているのか(学習の経験がどの程度あるのか、どの程度賢いのかなど)を、数値やグラフ等で単純に可視化する手法は存在するものの、そのような手法は、ユーザが直感的に理解できるような手法であるとはいえない。
本技術はこのような状況に鑑みてなされたものであり、学習の成熟度をユーザが直感的に理解できるようにするものである。
本技術の一側面のデータ処理装置は、点と線とで構成された格子を表示画面に表示させ、前記格子全体のうち、対象物を表現する部分領域の粗密状態を、前記対象物の学習の成熟度に応じて変更する制御部を備える。
本技術の一側面においては、点と線とで構成された格子が表示画面に表示され、前記格子全体のうち、対象物を表現する部分領域の粗密状態が、前記対象物の学習の成熟度に応じて変更される。
本技術の一実施形態に係るインタラクションシステムの使用状態を示す図である。 格子画像を拡大して示す図である。 格子画像、格子領域、部分領域の関係を示す図である。 格子画像の変化の例を示す図である。 格子画像の変化の例を示す図である。 格子画像の変化の仕方の例を示す図である。 インタラクションシステムの構成例を示すブロック図である。 制御装置の機能構成例を示すブロック図である。 対象物の例を示す図である。 表示画面の例を示す図である。
<本技術の概要>
本技術は、人工知能搭載製品の内容(種別)と学習の度合いを表す成熟度とを紐付けて、ユーザが直感的に理解できるようにする点に着目したものである。
本技術は、特に、複数の人工知能搭載装置のそれぞれの学習の成熟度を容易に比較できる点に特徴がある。
また、本技術は、人工知能搭載製品の内容と学習の成熟度を紐付けてGUI(Graphical User Interface)のアイコンとして表示する場合に、人工知能搭載製品の学習の成熟度をユーザがコントロールできるようにするものである。
<インタラクションシステムの用途>
図1は、本技術の一実施形態に係るインタラクションシステムの使用状態を示す図である。
図1のインタラクションシステムは、暗い室内などの空間において用いられる。インタラクションシステムが設置された空間内には人(ユーザ)が存在する。
図1に示すように、室内の壁面には、大型かつ薄型のディスプレイであるディスプレイ1-1乃至1-4が並べて設置される。ディスプレイ1-1乃至1-4は、例えば有機ELディスプレイなどの狭額縁のディスプレイであり、長辺同士がほぼ接する状態で設置される。
狭額縁のディスプレイが接した状態で設けられることにより、ディスプレイ1-1乃至1-4を1つの表示画面として用いて、表示画面全体に各種の情報を表示させることが可能となる。
ディスプレイ1-1乃至1-4としてLCDが用いられるようにしてもよい。各種の情報の表示がプロジェクタを用いて行われるようにしてもよい。
図1に示すように、ディスプレイ1-1乃至1-4からなる表示画面には、複数の格子画像が表示される。
図2は、格子画像を拡大して示す図である。
格子画像は、点と直線をボロノイ(Voronoi)状に組み合わせることによって構成される。格子画像には、形状と大きさが異なる複数の多角形の領域である格子領域が形成される。
格子画像を構成する点と線は、例えば白色で表示される。画像中心に近いほど高い輝度で表示され、周辺に近いほど低い輝度で表示される。
図1のインタラクションシステムは暗い空間に用意されるから、背景が黒色で表示されることにより、格子画像が暗闇に浮かんで見えるような表現が実現される。
例えば、それぞれの格子画像には、格子画像が表現するある対象物が設定される。
例えば、対象物が学習機能を有している場合、格子画像の粗密状態は、対象物の学習の成熟度を表す。密度が高い格子画像ほど、対象物の学習が進み、対象物の知的レベルが高いことを表現していることになる。対象物の詳細については後述する。
図2の例においては、ディスプレイ1-1,1-2によって格子画像#1が表示され、ディスプレイ1-3,1-4によって格子画像#2が表示されている。それぞれのディスプレイの表示範囲を下方に示す。
また、図2の例においては、格子画像#2の方が、格子画像#1より密な状態で表示されている。格子画像#2が表現する対象物の方が、格子画像#1が表現する対象物より学習の成熟度が高いことになる。
このように、ディスプレイ1-1乃至1-4により構成される表示画面には、複数の格子画像が、粗密状態を比較できる形態で表示される。
対象物の学習の成熟度に応じて格子画像の粗密状態を変えるのではなく、空間の入口に近い場所に粗密状態が粗い格子画像を表示させ、出口に近い場所に粗密状態が密な格子画像を表示させるようにしてもよい。出口に向かうユーザに対して徐々に密な状態になる格子画像を見せることによって、知能の進化を表現することが可能となる。
ここで、格子画像には、対象物の内容(種類)、対象物の形状を、格子領域のまとまりによって表現する部分が含まれる。
以下、適宜、格子画像全体のうち、ある対象物を表現する格子領域からなる部分的な領域を、部分領域という。格子画像、格子領域、部分領域の関係は、図3に示すようなものとなる。部分領域の表示は、他の領域の表示に比べて立体感を強調するように表示される。
格子画像の粗密状態は、例えば格子画像の近傍にいるユーザの動きの状態に応じて変化する。図1のインタラクションシステムが設置される空間には、ユーザの動きの検出に用いられるIRカメラなどが設けられる。
図4および図5は、格子画像の変化の例を示す図である。
例えば、あるユーザが格子画像#1の前(ディスプレイ1-1,1-2の前)で動いている場合、図4の矢印で示すように、格子画像#1に含まれる部分領域を中心として、格子画像#1の粗密状態が変化する。格子画像#2の前にユーザがいない場合には、格子画像#2の表示は変化しない。
また、格子画像#1の前から移動するなどして、あるユーザが格子画像#2の前(ディスプレイ1-3,1-4の前)で動いている場合、図5の矢印で示すように、格子画像#2に含まれる部分領域を中心として、格子画像#2の粗密状態が変化する。格子画像#1の前にユーザがいない場合には、格子画像#1の表示は変化しない。
図6は、格子画像の変化の仕方の例を示す図である。
図6の右側に丸印で示すように、IRカメラにより検出されたIR画像を解析することによって、ユーザの関節の位置が認識される。また、IR画像を順次解析することにより、ユーザの関節の動きが認識される。
矢印A1で示すように、各関節は、部分領域に含まれる点に対応付けられる。図6の例においては、ユーザの右肘付近の関節が、格子画像#1の左方にある1つの点に対応付けられている。格子画像#1の他の点に対しても、ユーザの他の関節がそれぞれ対応付けられる。
格子画像の粗密状態の変化は、ユーザの関節の動きに応じて、部分領域の対応する点の位置を動かすことによって実現される。
例えば、ユーザが格子画像#1の前で動いている場合、そのユーザの動きに応じて点の位置が動くことにより、部分領域に含まれる所定の格子領域の形状が変化し、これにより、部分領域を中心として、格子画像#1の粗密状態が変化する。部分領域の粗密状態が変化することに応じて、適宜、部分領域の周りの格子領域の粗密状態も変化する。
ユーザの動きに応じて格子画像の粗密状態が変化することにより、ユーザと、格子画像が表現する対象物との間でのインタラクションが実現される。
インタラクションシステムは、ユーザの動きを理解していることを連想させるような変化を格子画像に生じさせることによって、ユーザに対して、格子画像が表現する対象物が、あたかも知能を持っているかのような感覚を与えることができる。
また、インタラクションシステムは、ユーザの動きを、格子画像といったような抽象的な形状の粗密状態の変化に変換して提示することができる。すなわち、格子画像の表示により、抽象的なグラフィックスの中に、ユーザの動きを自然な形で溶け込ませるといったことが実現される。
一方、ユーザは、格子画像#1の粗密状態から、格子画像#1が表現する対象物の学習の成熟度を直感的に理解することができる。
ユーザの関節と部分領域の点との対応関係が、ユーザの位置、時間経過などの各種の条件に応じて変化するようにしてもよい。
また、ユーザの関節と部分領域の点が対応付けられるのではなく、関節以外の、特徴点となる体の他の部分が、部分領域の点に対応付けられるようにしてもよい。
<インタラクションシステムの構成例>
図7は、インタラクションシステムの構成例を示すブロック図である。
図7に示すように、インタラクションシステムは、ディスプレイ1-1乃至1-4からなるディスプレイ1の他に、制御装置11、IRカメラ群12、スピーカ群13により構成される。各装置は、有線、または無線の通信を介して接続される。
制御装置11は、PCなどのデータ処理装置により構成される。制御装置11は、IRカメラ群12による検出結果等に基づいて、ディスプレイ1における格子画像の表示を制御する。また、制御装置11は、演出のためのBGMなどをスピーカ群13から出力させる。
IRカメラ群12は、インタラクションシステムが設置された空間の各位置に配置された複数のIRカメラにより構成される。IRカメラ群12を構成するそれぞれのIRカメラに対しては、ユーザの動きを検出するための範囲が設定されている。IRカメラ群12を構成するそれぞれのIRカメラは、格子画像の近傍に設定された所定の範囲を対象としたIR画像を生成し、制御装置11に出力する。
IRカメラに代えてRGBカメラが設けられ、RGB画像を用いてユーザの動きが認識されるようにしてもよい。また、距離センサなどの他のセンサを用いてユーザの動きが認識されるようにしてもよい。
スピーカ群13は、インタラクションシステムが設置された空間の各位置に配置された複数のスピーカにより構成される。スピーカ群13を構成するそれぞれのスピーカは、制御装置11による制御に従ってBGMを出力する。
図8は、制御装置11の機能構成例を示すブロック図である。
図8に示す機能部のうちの少なくとも一部は、制御装置11を構成するPCのCPUにより所定のプログラムが実行されることによって実現される。
制御装置11においては、人物状態認識部21、学習成熟度算出部22、および表示制御部23が実現される。
人物状態認識部21は、IRカメラ群12を構成するIRカメラから供給されたIR画像を解析し、格子画像の近傍にいるユーザの動きを認識する。ユーザの動きの認識結果を表す情報は表示制御部23に供給される。
学習成熟度算出部22は、格子画像が表現する対象物の学習の成熟度を算出する。学習の成熟度は、学習を開始してからの時間経過、学習の回数、学習に用いたデータの量などに基づいて算出される。
学習は、深層学習などの、学習用データを用いた機械学習である。対象物となる機器は、学習によって得られたニューラルネットワークなどのモデルを用いて、所定の入力データに対応する出力データを生成する推論処理を行う機能を有する。
例えば、学習成熟度算出部22は、対象物となる機器と通信を行い、機器の学習状況に関する情報を取得する。学習成熟度算出部22は、取得した情報に基づいて、対象物となる機器の学習の成熟度を算出する。学習の成熟度を表す情報は表示制御部23に供給される。
制御装置11自身が学習機能を有している場合、外部の機器の学習の成熟度ではなく、制御装置11自身の学習の成熟度が算出されるようにしてもよい。この場合、制御装置11自身が対象物となり、格子画像によって制御装置11が表現される。
表示制御部23は、人物状態認識部21から供給されたユーザの動きの認識結果を表す情報と、学習成熟度算出部22から供給された学習の成熟度を表す情報に基づいて格子画像の表示を制御する。
上述したように、表示制御部23は、対象物の学習の成熟度に応じた粗密状態を有する格子画像を表示させる。また、表示制御部23は、格子画像の粗密状態を、上述したようにしてユーザの動きに応じて変化させることによって、ユーザと、対象物とのインタラクションを実現させる。
<対象物について>
ここで、格子画像が表現する対象物について説明する。
図9は、対象物の例を示す図である。
図9のAに示すように、格子画像が表現する対象物として、テレビジョン受像機(TV)などの家電製品が用いられる。図9のAに示すTVは、ユーザの好みなどを学習する機能を搭載した機器である。
PC、スマートフォン、ゲーム機、オーディオ機器、カメラ、エアーコンディショナー、冷蔵庫、洗濯機などの他の家電製品が格子画像によって表現されるようにしてもよい。
図9のBに示すように、格子画像が表現する対象物として、ロボットが用いられる。図9のBに示すロボットは、ユーザの好み、周囲の状況などを学習する機能を搭載した犬型のロボットである。
人型ロボット、エージェント機器などの他のロボットが格子画像によって表現されるようにしてもよい。
ユーザ自身が対象物として設定されるようにしてもよい。この場合、対象物としてのユーザの学習の成熟度として、例えば、年齢に応じた値が算出される。
このように、家電製品などの機器だけでなく、ユーザなどの各種の対象を対象物として格子画像で表現して表示させることが可能である。
格子画像の表示は、例えば、対象物の学習の成熟度だけでなく、対象物の内容(種類)、対象物の外観形状などにも応じて粗密状態を変化するようにして行われる。
この場合、部分領域の形状は、対象物の内容を連想できるように、または、対象物の外観形状を連想できるように設定され、格子画像に含められる。これにより、対象物の内容や対象物の外観形状を連想できるような形状を有する部分形状を中心として、格子画像の粗密状態がユーザの動きに応じて変化することになる。
<変形例>
・表示画面の例
格子画像の表示に用いられる表示画面が、ディスプレイ1-1乃至1-4により構成される表示画面であるものとしたが、格子画像が他のディスプレイに表示されるようにしてもよい。
図10は、表示画面の例を示す図である。
図10の例においては、携帯端末であるスマートフォンのディスプレイに格子画像51と格子画像52が表示されている。
例えば、格子画像51は、スマートフォンから操作可能な所定の機器を対象物とした格子画像であり、格子画像52は、同じくスマートフォンから操作可能な、他の機器を対象物とした格子画像である。
ユーザは、ディスプレイを指で操作することにより、格子画像51と格子画像52の表示位置を変更することができる。
また、ユーザは、例えば格子画像51と格子画像52の位置を入れ替えるなどして、格子画像51と格子画像52のそれぞれが表現する対象物の機器に対して学習を行わせることができる。格子画像の表示位置を変更することに応じて対象物の機器の学習が行われ、学習の成熟度が変化することになる。
このように、スマートフォンなどの携帯端末のディスプレイに格子画像を表示させ、ユーザが各種の操作を行うことができるようにしてもよい。携帯端末のディスプレイに表示される格子画像は、アイコンのような用途を有することになる。
・表示の例
対象物が、電源により稼働する家電製品などの装置である場合、装置が稼働している場合には、格子画像の部分領域を振動して表示させるようにしてもよい。装置が稼働していない場合には、格子画像の部分領域の振動表示は停止される。
格子画像が白色で表示されるものとしたが、学習の成熟度に応じて格子画像の色が変化するようにしてもよい。
・その他
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
1-1乃至1-4 ディスプレイ, 11 制御装置, 12 IRカメラ群, 13 スピーカ群

Claims (18)

  1. 点と線とで構成された格子を表示画面に表示させ、前記格子全体のうち、対象物を表現する部分領域の粗密状態を、前記対象物の学習の成熟度に応じて変更する制御部を備える
    データ処理装置。
  2. 前記制御部は、前記学習の成熟度が高まることに応じて、前記部分領域の粗密状態を密に変更する
    請求項1に記載のデータ処理装置。
  3. 前記制御部は、前記対象物の内容に応じて、前記部分領域の粗密状態を変更する
    請求項2に記載のデータ処理装置。
  4. 前記制御部は、前記対象物の形状に応じて、前記対象物を連想できるように、前記部分領域の粗密状態を変更する
    請求項3に記載のデータ処理装置。
  5. 前記制御部は、前記対象物の形状の変化に応じて、前記対象物の形状の変化を連想できるように、前記部分領域の粗密状態を変更する
    請求項4に記載のデータ処理装置。
  6. 前記制御部は、前記部分領域と他の領域とを同一色で表示させる
    請求項1に記載のデータ処理装置。
  7. 前記制御部は、前記部分領域の表示形態を、前記他の領域の表示形態に比べて立体感を強調するように変更する
    請求項6に記載のデータ処理装置。
  8. 前記対象物は、ロボットであり、
    前記制御部は、前記ロボットの学習の成熟度に応じて、前記部分領域の粗密状態を変更する
    請求項1に記載のデータ処理装置。
  9. 前記対象物は、家電製品であり、
    前記制御部は、前記家電製品に搭載された学習機能に対する学習の成熟度に応じて、前記部分領域の粗密状態を変更する
    請求項1に記載のデータ処理装置。
  10. 前記対象物は、複数あり、
    前記制御部は、それぞれの前記対象物を表現する前記部分領域毎に粗密状態を比較できる表示形態で、前記部分領域の粗密状態を表示させる
    請求項1に記載のデータ処理装置。
  11. 前記制御部は、前記格子の表示位置がユーザにより変更されることに応じて、前記対象物の学習の成熟度を変化させるように制御する
    請求項1に記載のデータ処理装置。
  12. 前記制御部は、ユーザによる操作に応じて、前記格子の表示位置を変更する
    請求項1に記載のデータ処理装置。
  13. 前記制御部は、センサによりセンシングされた前記対象物の状態に応じて、前記部分領域の粗密を変更する
    請求項1に記載のデータ処理装置。
  14. 前記対象物は、人であり、
    前記センサによりセンシングされた人の関節と前記格子を構成する点とを対応付け、前記部分領域の粗密状態を変更する
    請求項13に記載のデータ処理装置。
  15. 前記対象物は、電源により稼働する装置であり、
    前記制御部は、前記装置が稼働している場合には、前記部分領域を振動して表示させる
    請求項1に記載のデータ処理装置。
  16. 前記制御部は、前記装置が稼働してない場合には、前記部分領域を振動させない
    請求項15に記載のデータ処理装置。
  17. 前記制御部は、前記表示画面に、アイコンとして前記格子を表示させる
    請求項1に記載のデータ処理装置。
  18. データ処理装置が、
    点と線とで構成された格子を表示画面に表示させ、
    前記格子全体のうち、対象物を表現する部分領域の粗密状態を、前記対象物の学習の成熟度に応じて変更する
    表示制御方法。
JP2019025718A 2019-02-15 2019-02-15 データ処理装置、表示制御方法 Pending JP2022051981A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019025718A JP2022051981A (ja) 2019-02-15 2019-02-15 データ処理装置、表示制御方法
PCT/JP2020/003602 WO2020166372A1 (ja) 2019-02-15 2020-01-31 データ処理装置、表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025718A JP2022051981A (ja) 2019-02-15 2019-02-15 データ処理装置、表示制御方法

Publications (1)

Publication Number Publication Date
JP2022051981A true JP2022051981A (ja) 2022-04-04

Family

ID=72044213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025718A Pending JP2022051981A (ja) 2019-02-15 2019-02-15 データ処理装置、表示制御方法

Country Status (2)

Country Link
JP (1) JP2022051981A (ja)
WO (1) WO2020166372A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000315259A (ja) * 1999-05-06 2000-11-14 Sharp Corp データベース作成装置及びデータベース作成プログラムを記録した記録媒体
JP4683308B2 (ja) * 2008-03-13 2011-05-18 ソニー株式会社 学習装置、学習方法、及び、プログラム
US9530306B2 (en) * 2013-06-24 2016-12-27 Panasonic Intellectual Property Corporation Of America Information notification method, information terminal, and program
WO2016031254A1 (ja) * 2014-08-28 2016-03-03 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP5885875B1 (ja) * 2015-08-28 2016-03-16 株式会社Ubic データ分析システム、データ分析方法、プログラム、および、記録媒体
JP2018097437A (ja) * 2016-12-08 2018-06-21 株式会社テレパシージャパン ウェアラブル情報表示端末及びこれを備えるシステム

Also Published As

Publication number Publication date
WO2020166372A1 (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
US10347093B2 (en) Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
US11452941B2 (en) Emoji-based communications derived from facial features during game play
TW201814435A (zh) 基於手勢的互動方法及裝置
US10482657B2 (en) Information processing system, non-transitory storage medium having stored information processing program, information processing device, information processing method, game system, non-transitory storage medium having stored game program, game device, and game method
WO2014030888A1 (en) System and method for perceiving images with multimodal feedback
KR20160113169A (ko) 이미지 처리 방법 및 장치, 및 컴퓨터 디바이스
EP3557384A1 (en) Device and method for providing dynamic haptic playback for an augmented or virtual reality environments
EP3130969A1 (en) Method and device for showing work state of a device
KR20210072808A (ko) 타깃 추적 방법 및 장치, 스마트 이동 기기 및 저장 매체
JP2017063916A (ja) 提示する力覚を決定する装置、方法、およびプログラム
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
KR101623642B1 (ko) 로봇 청소기, 단말장치의 제어방법 및 이를 포함하는 로봇 청소기 제어 시스템
US8371897B1 (en) Vision technology for interactive toys
TW202309547A (zh) 用於追蹤物件的電子設備
WO2021145878A1 (en) Mobile application platform projected on a secondary display with intelligent gesture interactions
CN113487662B (zh) 画面显示方法、装置、电子设备和存储介质
US9486699B2 (en) Information processing system, non-transitory computer-readable storage medium having stored therein information processing program, information processing apparatus, and information processing method
WO2020166372A1 (ja) データ処理装置、表示制御方法
Scargill et al. Ambient intelligence for next-generation AR
JPWO2015118756A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US10665067B2 (en) Systems and methods for integrating haptics overlay in augmented reality
US12011658B2 (en) Single unit deformable controller
CN110489026A (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
KR20200069009A (ko) 가상현실 구현장치 및 이를 이용한 플랜트 전기배선 설계의 자동화 시스템
CN107957781A (zh) 信息显示方法及装置