JP6841232B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6841232B2
JP6841232B2 JP2017556401A JP2017556401A JP6841232B2 JP 6841232 B2 JP6841232 B2 JP 6841232B2 JP 2017556401 A JP2017556401 A JP 2017556401A JP 2017556401 A JP2017556401 A JP 2017556401A JP 6841232 B2 JP6841232 B2 JP 6841232B2
Authority
JP
Japan
Prior art keywords
user
user operation
range
information processing
recognition accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017556401A
Other languages
English (en)
Other versions
JPWO2017104272A1 (ja
Inventor
遼 深澤
遼 深澤
邦在 鳥居
邦在 鳥居
貴広 岡山
貴広 岡山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017104272A1 publication Critical patent/JPWO2017104272A1/ja
Application granted granted Critical
Publication of JP6841232B2 publication Critical patent/JP6841232B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、センシングに基づく認識により、機器の操作を可能とする技術が用いられている。例えば、下記特許文献1には、カメラを有するヘッドマウントディスプレイ(HMD)を装着したユーザが、自身の手を用いて様々なジェスチャを当該カメラに撮像(センシング)させ、ジェスチャ認識により当該HMDを操作する技術が開示されている。
特開2014‐186361号公報
しかし、ジェスチャ等のセンシングに基づくユーザ操作の認識は失敗することもあり、例えば、ユーザの状況や周辺の環境、デバイスの性能等により認識精度が低下する恐れがある。例えば、認識精度が低い場合と認識精度が高い場合とで操作方法が同一であると、操作が認識されないことが多く、ユーザは操作が認識されるまで何度も同じ操作を繰り返してしまうため、ユーザにとって負担が大きい。
そこで、本開示では、認識精度に応じたユーザ操作により操作することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、センシングデータに基づく認識に係る認識精度を取得する取得部と、前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御部と、を備える情報処理装置が提供される。
また、本開示によれば、センシングデータに基づく認識に係る認識精度を取得することと、前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせるように、プロセッサが制御することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、センシングデータに基づく認識に係る認識精度を取得する取得機能と、前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御機能と、を実現させるためのプログラムが提供される。
以上説明したように本開示によれば、認識精度に応じたユーザ操作により操作することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る情報処理装置の概要について説明するための説明図である。 同実施形態による情報処理装置1の構成を示すブロック図である。 同実施形態に係る情報処理装置1の動作例を説明するためのフローチャート図である。 同実施形態に係るユーザ操作の第一の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第一の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第一の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第二の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第二の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第三の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第三の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第三の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第四の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第四の具体例を説明するための説明図である。 同実施形態に係るユーザ操作の第四の具体例を説明するための説明図である。 本開示に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<<1.概要>>
<<2.構成>>
<<3.動作>>
<<4.ユーザ操作の具体例>>
<4−1.第一の具体例>
<4−2.第二の具体例>
<4−3.第三の具体例>
<4−4.第四の具体例>
<<5.ハードウェア構成例>>
<<6.むすび>
<<1.概要>>
本開示に係る技術は、様々な形態の装置に適用可能である。図1は、本開示の一実施形態に係る情報処理装置の概要について説明するための説明図である。図1に示す例において、情報処理装置1は、ヘッドマウントディスプレイ(HMD)である。情報処理装置1は、ユーザの頭部に装着され、ユーザの目の一方、または双方の前方に配置されるシースルー型の表示部を有する。
本実施形態に係る情報処理装置1は、センシングを行うセンサ部(不図示)を有し、ユーザによる操作を認識する。例えば、情報処理装置1は後軸がユーザの視線と略平行になるように配置され、ユーザの視界に重なる画像を取得するカメラをセンサ部として備え、取得された画像に基づいてユーザ操作が認識されてもよい。例えば、ユーザ操作は、ユーザ自身の手、指、手で把持する実オブジェクト、または足等の操作体を用いて行われてもよい。また、ユーザ操作は、後述するように視線や音声を用いて行われてもよい。
図1の例において、情報処理装置1の表示部には、仮想的なオブジェクトである仮想オブジェクトV1と、ユーザの手である操作体H1の認識結果を示すユーザインタフェースU1が表示される。ユーザが透過型の表示部を通して見た場合、ユーザインタフェースU1は、図1に示すように操作体H1に重畳されるように表示される。
図1に示すユーザインタフェースU1のように、操作体H1は独立して動作可能な5本の指を含んで認識されており、多様な操作を実現し得る。
上述したような情報処理装置1において、ユーザの状況や周辺の環境、デバイスの性能等により操作体H1や、操作体H1を用いたユーザ操作に関する認識精度が低下する場合がある。例えば、認識に用いられる画像が暗い場所で取得されると、操作体H1の各指の位置や向きの認識精度が低くなる場合がある。その結果、ユーザの意図した操作が認識されず、処理が行われない、またはユーザの意図した処理と異なる処理が行われる恐れがある。そこで、次節より、認識精度に応じたユーザ操作(操作方法)により操作可能な仕組みを説明する。
なお、図1では情報処理装置1がHMDであり、シースルー型の表示部を有する例を示しているが、本実施形態に係る情報処理装置1は係る例に限定されず、センシングに基づいてユーザ操作を認識可能な装置であれば様々な形態で実現され得る。例えば、情報処理装置1が有する表示部は、シースルー型であっても非シースルー型であってもよい。また、情報処理装置1は、ヘルメット型や車のフロントガラス(ヘッドアップディスプレイ)型の表示デバイスであってもよい。また、情報処理装置1は、プロジェクタ等の投影装置によりテーブル等の平面に画像が投影されるテーブルトップ型の表示デバイスであってもよい。また、情報処理装置1は、PC(パーソナルコンピュータ)、スマートフォン、タブレットPC、PND(Portable/Personal Navigation Device)等であってもよい。
<<2.構成>>
以上、本実施形態による情報処理装置1の概要を説明した。続いて、図2を参照して、本開示の一実施形態による情報処理装置1の構成例について説明する。図2は、本実施形態による情報処理装置1の構成を示すブロック図である。図1に示すように、情報処理装置1は、センサ部110、認識部120、取得部130、範囲設定部140、制御部150、記憶部160、及び表示部170を備える情報処理装置である。
センサ部110は、ユーザやユーザの置かれた環境に関するセンシングを行い、センシング結果(センシングデータ)を取得する。例えば、センサ部110はCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いて実空間を撮像することにより撮像画像を取得するカメラを含んでもよい。また、センサ部110は複数の撮像素子を有し、複数の画像を同時に取得するステレオカメラを含んでもよい。かかる場合、当該複数の撮像素子は水平に並べられ、後述する認識部120が取得された複数の画像をステレオマッチング法等により解析することで、実空間の三次元形状情報(深度情報)を取得することが可能となる。
もちろんセンサ部110はカメラに限定されず、様々なセンサを含んでよい。例えば、センサ部110はマイク、GPS(Global Positioning System)センサ、加速度センサ、視覚(視線、注視点、焦点、瞬目等)センサ、生体(心拍、体温、血圧、脳波等)センサ、ジャイロセンサ、照度センサ、赤外線カメラ等の各種センサを含んでもよい。センサ部110は、取得したセンシングデータを認識部120と取得部130に提供する。
認識部120は、センサ部110のセンシングにより取得されたセンシングデータを解析し、多様な情報を認識(取得)する。例えば、認識部120は、センシングデータに基づいてユーザに関するユーザ情報、及びユーザの置かれた環境に関する環境情報を認識してもよい。
ここで、ユーザ情報は、例えば、ユーザの行動を示す行動情報、ユーザの動きを示す動き情報、生体情報、注視情報等を含んでもよい。行動情報は、例えば、静止中、歩行中、走行中、自動車運転中、階段昇降中等ユーザの現在の行動を示す情報であり、センサ部110により取得された加速度等のセンシングデータを解析することで認識されてもよい。また、動き情報は、移動速度、移動方向、移動加速度、コンテンツの位置への接近等の情報であり、センサ部110により取得された加速度、GPSデータ等のセンシングデータ等から認識されてもよい。また、生体情報は、ユーザの心拍数、体温発汗、血圧、脈拍、呼吸、瞬目、眼球運動、脳波等の情報であり、センサ部110に含まれる生体センサによるセンシングデータに基づいて認識されてもよい。また、注視情報は、視線、注視点、焦点、両眼の輻輳等のユーザの注視に関する情報であり、センサ部110に含まれる視覚センサによるセンシングデータに基づいて認識されてもよい。なお、認識部120による視線の認識処理については後述する。
また、環境情報は、例えば、周辺状況、場所、照度、高度、気温、風向き、風量、時刻等の情報を含んでもよい。周辺状況の情報は、ユーザ以外の人物や自動車が周辺に存在するか否かという情報や、混雑度等の情報であってもよく、センサ部110に含まれるカメラやマイクによるセンシングデータを解析することで認識されてもよい。また、場所の情報は、例えば、屋内、屋外、水中、危険な場所等、ユーザがいる場所の特性を示す情報でもよいし、自宅、会社、慣れた場所、初めて訪れる場所等、当該場所のユーザにとっての意味を示す情報でもよい。場所の情報は、センサ部110に含まれるカメラやマイク、GPSセンサ、照度センサ等によるセンシングデータを解析することで認識されてもよい。また、照度、高度、気温、風向き、風量、時刻(例えばGPS時刻)の情報も同様に、センサ部110に含まれる各種センサにより取得されるセンシングデータに基づいて認識されてもよい。
また、認識部120は、センサ部110に含まれるカメラによって取得される撮像画像を解析し、実空間に存在する操作体等の実オブジェクトの認識処理を行ってもよい。認識部120は、例えば撮像画像から抽出される画像特徴量を、後述する記憶部160に記憶される既知の実オブジェクト(例えば手等の操作体)の画像特徴量と照合することにより、撮像画像中の実オブジェクトを識別し、撮像画像における位置を認識する。
さらに、認識部120は、センサ部110に含まれるカメラによって取得される撮像画像を解析し、実空間の三次元形状情報を取得してもよい。例えば、認識部120は、同時に取得された複数画像に対するステレオマッチング法や、時系列的に取得された複数画像に対するSfM(Structure from Motion)法、SLAM法等を行うことで、実空間の三次元形状を認識し、三次元形状情報を取得してもよい。また、認識部120が実空間の三次元形状情報を取得可能な場合、認識部120は、実オブジェクトの三次元的な位置、形状、サイズ、及び姿勢を認識してもよい。
また、認識部120は、センシングデータやユーザ情報に基づいて、ユーザ操作の認識を行ってもよい。例えば、本実施形態に係る認識部120は、ジェスチャ操作の認識、視線操作の認識、音声操作の認識等を行う。
例えば、認識部120は、操作体を用いてユーザにより演じられるジェスチャ操作を以下のように認識する。認識部120により実行されるジェスチャ認識処理は、操作体を含む部分画像の切り出し、切り出した部分画像のスケーリング、部分画像の一時的な保存、フレーム間の差分の計算などを含み得る。認識部120は、例えば、上述の処理で得られた操作体の位置、形状又はサイズなどの属性を追跡し、それら属性の時間的変化を記憶部160に予め記憶される既知のジェスチャパターンと照合することにより、操作体が表現するジェスチャ操作を認識してもよい。また、本明細書において、ジェスチャとの用語は、操作体の属性の時間的変化を伴わない、静的なポーズ(形状)をも含むものとする。なお、認識部120により認識されるジェスチャ操作の非限定的ないくつかの具体例について、後に図面を用いて説明する。
また、認識部120は、ユーザの視線位置による視線操作を以下のように認識する。認識部120は、例えば複数の赤外線LEDによりユーザの瞳孔に照射される赤外光の反射を示す光点の位置と、既知の当該赤外線LEDの位置を対応付けることで、視線操作に用いられる視線位置を認識してもよい。なお、赤外光の反射を示す光点の位置は、センサ部110により検出されてもよいし、センサ部110に含まれる赤外線カメラで瞳孔を撮影して得た画像から、認識部120により検出されてもよい。また、認識部120は、視線位置や、当該視線位置を時系列的に追跡した視線の軌跡と、記憶部160に記憶される既知の視線パターンと照合することにより、視線操作を認識してもよい。なお、認識部120により認識される視線位置を用いた視線操作の非限定的ないくつかの具体例について、後に図面を用いて説明する。
また、認識部120は、ユーザの音声による音声操作を以下のように認識する。認識部120は、例えばセンサ部110に含まれるマイクにより取得される入力音声と、記憶部160に記憶される既知の音声パターンと照合することにより、音声操作を認識してもよい。音声操作でユーザにより入力される音声は、所定の音声コマンド(Yes/No等)や、単語やキーワード、または表示部170に表示されるエージェントと会話するような文章、であってもよい。なお、認識部120により認識される音声操作の非限定的ないくつかの具体例について、後に図面を用いて説明する。
なお、上述した記憶部160に記憶されるユーザ操作に係る情報(ジェスチャパターン、視線パターン、音声パターン等)は、後述する制御部150により特定されたユーザ操作に応じた適切な情報が、制御部150を介して認識部120に提供されてもよい。
取得部130は、ユーザ情報、及びユーザ操作の認識に係る認識精度を取得する取得機能を有する。例えば、取得部130は、認識部120が行う認識における信頼度や、操作の認識に用いられるセンシングデータから推定されるセンシングデータの誤差または精度に基づいて認識精度を特定してもよい。
例えば、ジェスチャ操作に用いられる操作体の認識において、画像から検出される特徴点の数が多い程、操作体の認識結果がより信頼できる傾向にあるため、ジェスチャ操作の認識における信頼度は、当該特徴点の数であってもよい。また、ジェスチャ操作の認識における信頼度は、認識された操作体の属性の時間的変化と既知のジェスチャパターンとの照合におけるマッチングスコアであってもよい。
また、上述したように、視線操作に用いられる視線位置は、認識部120がユーザの瞳孔中から検出した光点に基づいて認識されるため、検出される光点の数が多い程、視線位置の推定結果はより信頼できる傾向にある。したがって、視線操作の認識における信頼度は、ユーザの瞳孔中に検出された光点の数であってもよい。また、視線操作の認識における信頼度は、左右の目のそれぞれから認識される視線位置の差であってもよい。
また、音声操作の認識における信頼度は、例えば入力音声から周知のノイズ推定技術により推定されるノイズの小ささや、入力音声と既知の音声パターンとの照合におけるマッチングスコアであってもよい。
上述のように、信頼度に基づいて認識精度を特定することで、認識精度は認識結果が信頼できる度合を反映したものとなり、認識精度に応じたユーザ操作が選択されることによるユーザの利便性が高まる。
また、センシングデータの誤差、及び精度は様々な方法で推定され得る。例えば、取得部130は、過去所定時間分のセンシングデータの分散を算出し、当該分散が大きい場合、または分散に大きな変化があった場合に、誤差が大きい(精度が低い)、と推定してもよい。センシングデータの誤差、または精度に基づいて認識精度を特定することで、認識精度は、結果として認識の精度を反映したものとなり、認識精度に応じたユーザ操作が選択されることによるユーザの利便性が高まる。
上記で説明した信頼度や誤差、または精度は、単独で用いられて、または組み合わされて認識精度が特定されてもよい。また、取得部130による認識精度の特定方法は、上記に限定されず、得られるセンシングデータやユーザ操作に応じて様々な方法で特定されてもよい。
なお、取得部130による認識精度の取得は、上述したような認識精度の特定による取得に限定されない。例えば、認識部120が、認識処理の過程において上述した認識精度を特定し、取得部130は認識部120から認識精度を受け取ることで認識精度を取得してもよい。
また、本実施形態では情報処理装置1が有するセンサ部110により取得されるセンシングデータに基づいた認識精度を取得する例について説明したが、本開示は係る例に限定されない。例えば、情報処理装置1は、他のセンサ装置と連携してもよく、センサ部110によるセンシングデータや、当該センシングデータに基づく認識結果に代えて、または加えて、当該センサ装置から得られるセンサデータや認識結果を用いてもよい。係る場合、取得部130は、例えば当該センサ装置により特定される認識精度を当該センサ装置から取得するインタフェースであってもよい。
範囲設定部140は後述する制御部150が操作方法の特定に用いる範囲の設定を行う。範囲設定部140は、一または複数の閾値を用いて、所定数の範囲を設定してもよい。例えば、範囲設定部が一の閾値を設定することで、当該閾値以上の第一の範囲と、当該閾値未満、すなわち、上限値が、第一の範囲の下限値以下となるような第二の範囲と、が設定されてもよい。また、同様に、範囲設定部が二の閾値を設定することで、第一の範囲、上限値が第一の範囲の下限値以下となる第二の範囲、及び上限値が第二の範囲の下限値以下となる第三の範囲が設定されてもよい。なお、以下では、第二の範囲の上限値が第一の範囲の下限値以下であることを、第一の範囲は第二の範囲より高い、または第二の範囲は第一の範囲より低い等と表現する場合がある。
また、範囲設定部140は、予め定められた閾値を用いて範囲を設定してもよいし、動的に得られた閾値を用いて範囲を設定してもよい。予め閾値が定められる場合には、例えば、情報処理装置1の開発者や、情報処理装置1で実行されるアプリケーションの開発者が、インタラクションに応じて予め閾値を特定してもよい。
また、動的に閾値が得られる場合、範囲設定部140は、例えば、ユーザにとって厳しい(例えば操作や視認が困難な)状況である程、より閾値が大きくなる(後述する制御部150により単純な操作方法が選択されやすくなる)ように閾値を特定してもよい。例えば、範囲設定部140は、ユーザに関するユーザ情報、または、ユーザの置かれた環境に関する環境情報に基づいて、閾値を特定することで、範囲を設定してもよい。
範囲設定部140は、例えば、ユーザの移動速度の情報(ユーザ情報の一例)に応じて閾値を特定してもよく、ユーザの移動速度が速い程、閾値が大きくなるように閾値を特定してもよい。また、範囲設定部140は、ユーザの生体情報(ユーザ情報の一例)、例えばユーザの心拍数に応じて閾値を特定してもよく、ユーザの心拍数が高い程、閾値が大きくなるように閾値を特定してもよい。また、範囲設定部140は、ユーザ周囲の照度の情報(環境情報の一例)に応じて閾値を特定してもよく、ユーザ周囲の照度が暗い程、閾値が大きくなるように閾値を特定してもよい。また、範囲設定部140は、ユーザ周囲の混雑度の情報(環境情報の一例)に応じて閾値を特定してもよく、ユーザ周囲の混雑度が大きい程、閾値が大きくなるように閾値を特定してもよい。また、範囲設定部140は、情報処理装置1から操作体までの距離に応じて閾値を特定してもよく、当該距離が大きい程、閾値が大きくなるように閾値を特定してもよい。係る構成によれば、操作や視認が困難な場合に、認識精度が低下すると、より単純な操作方法が選択されやすくなるため、ユーザは状況に応じた操作方法で操作することが可能となる。その結果、操作が認識されないために同じ操作を繰り返すことが抑制され、ユーザはより快適に操作することが出来る。
制御部150は、情報処理装置1が有する各部を制御する制御機能を有する。特に本実施形態に係る制御部150は、取得部130により取得される認識精度と、範囲設定部140により設定される範囲に基づいて、適切なユーザ操作(操作方法)を特定し、当該ユーザ操作が認識された場合に対応する処理が行われるように制御する。
例えば、制御部150は、認識部120を制御し、認識精度が第一の範囲に含まれる場合には第一のユーザ操作を認識可能にさせてもよい。また、制御部150は、認識部120を制御し、認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせてもよい。なお、制御部150による認識部120の制御は、上記に限定されず、例えば、範囲設定部140が3以上の範囲を設定する場合、制御部150は認識精度と3以上の範囲に基づいて同様の制御を行ってもよい。
本開示において、第一のユーザ操作に第二のユーザ操作が関連するとは、例えば、第一のユーザ操作と第二のユーザ操作が同一対象に関するセンシングデータに基づいて認識されるユーザ操作である、ということを含んでもよい。例えば、第一のユーザ操作と第二のユーザ操作は、共にユーザの手、指先、視線、または音声に関するセンシングデータに基づいて認識されてもよい。係る構成により、制御部150により受け付けられるユーザ操作が変更されても、ユーザはセンサ部110にセンシングさせる対象を変更しなくてもよく、スムーズに操作を継続することが可能である。
また、本開示において、第二のユーザ操作が第一のユーザ操作とは異なるとは、例えば、認識部120が第一のユーザ操作と、第二のユーザ操作を異なる操作として認識する、ということを含んでもよい。例えば、第一のユーザ操作が独立して動作可能な5本の指を含む操作体を用いた操作として認識され、第二のユーザ操作が指を含まない(指が認識されていない)操作体を用いた操作として認識されて、第一のユーザ操作と第二のユーザ操作が異なることを含む。
また、制御部150は、認識部120によりユーザ操作が認識された場合に、当該ユーザ操作に基づいて所定の処理を行わせてもよい。例えば、認識精度が第一の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われ得る処理の種類は、認識精度が第二の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われ得る処理の種類を含んでもよい。また、認識精度が第一の範囲に含まれる場合に認識可能なユーザ操作は、認識精度が第二の範囲に含まれる場合に認識可能なユーザ操作よりも複雑な操作であってもよい。係る構成により、ユーザは、認識精度が低い場合であっても、単純なユーザ操作により処理を行わせることが可能であると共に、認識精度が高い場合には複雑なユーザ操作により、より自由度の高い多様な処理を実行させることが可能である。
また、制御部150は、認識精度と範囲に応じた一または複数のユーザ操作に係る情報を記憶部160から抽出して認識部120に提供することで、当該ユーザ操作を認識可能にさせてもよい。係る構成によれば、認識部120は、認識精度に基づいたユーザ操作を選択的に認識することが可能となり、例えば、認識部120が認識し得るユーザ操作を全て認識する場合と比較して、認識処理に係る処理負荷が軽減される。
また、制御部150は、認識精度が第一の範囲に含まれる場合には第一のユーザ操作が認識可能であることをユーザに通知させ、認識精度が第二の範囲に含まれる場合には第二のユーザ操作が認識可能であることをユーザに通知させてもよい。例えば、制御部150は、表示部170を制御し、認識可能なユーザ操作ごとに異なるユーザインタフェースやエフェクト、テキスト等を表示させることで、当該ユーザ操作が認識可能であることをユーザに通知させてもよい。また、制御部150による通知方法は上記に限定されず、制御部150は不図示のスピーカを制御して音声により通知させてもよいし、不図示の振動部を制御して振動により通知させてもよい。
なお、ユーザ操作、ユーザ操作に基づく処理、及びユーザ操作が認識可能であることの通知の具体例については、後に図面を用いて説明する。
記憶部160は、情報処理装置1による処理のためのプログラムやデータを記憶する。例えば、記憶部160は、操作体の認識に用いられる画像特徴量や、操作の認識に用いられるジェスチャパターン、視線パターン、音声パターン等を記憶していてもよい。記憶部160に記憶される上述した情報は、制御部150により特定されたユーザ操作に応じて、制御部150を介して認識部120に提供される。
表示部170は、種々の情報を表示するディスプレイである。表示部170は、図1に示したように、透過型(光学シースルー型)のディスプレイであってもよいし、非透過型のディスプレイであってもよい。また、表示部170は、制御部150に制御されて、認識可能なユーザ操作について通知するための表示を行ってもよい。
<<3.動作>>
以上、本開示の一実施形態に係る情報処理装置1の構成例について説明した。続いて、図3を参照して、本実施形態に係る情報処理装置1の動作例ついて説明する。図3は、本実施形態に係る情報処理装置1の動作例を説明するためのフローチャート図である。
まず、センサ部110により、センシングが行われる(S10)。続いて、認識部120が、センサ部110によるセンシング結果(センシングデータ)を解析して、ユーザ情報や環境情報、操作に係る情報等、様々な情報を認識する(S20)。続いて、取得部130が、認識における信頼度や、センシングデータの誤差または精度等に基づいて、認識精度情報を取得する(S30)。
続いて、範囲設定部140が、ユーザ情報や環境情報等に基づいて、操作方法の特定に用いられる範囲の設定を行う(S40)。設定された範囲と、認識精度に基づいて、制御部150は、操作方法(ユーザ操作)を特定する(S50)。
続いて、制御部150は、認識部120を制御して、特定された操作方法に応じた操作の認識が行われるように、認識設定を更新する(S60)。さらに、制御部150は、表示部170を制御して、特定されたユーザ操作(操作方法)が可能であることをユーザに通知させる(S70)。
なお、上述した一連の処理(ステップS10〜S70)は、当該一連の処理が終了次第、または定期的に、繰り返し実行されてもよい。
<<4.ユーザ操作の具体例>>
以上、本実施形態に係る情報処理装置1の構成例、及び動作例について説明した。以下では、ユーザ操作の具体例をいくつか挙げて説明する。
なお、以下に説明する具体例のうち、いずれか一つの具体例が本実施形態に適用されてもよいし、複数の具体例が組み合わされて本実施形態に適用されてもよい。また、以下に説明する具体例のうち、いずれか一つがユーザにより、または自動的に選択されて本実施形態に適用されてもよい。
<4−1.第一の具体例>
図4A〜Cは、本実施形態に係るユーザ操作の第一の具体例を説明するための説明図である。本具体例において、各ユーザ操作は、ユーザの手(操作体の一例)に関するセンシングデータに基づいて認識されるユーザ操作であり、認識精度に応じて、認識される指の数が異なる。また、本具体例において、範囲設定部140は3つの範囲を設定し、第一の範囲、第二の範囲、第三の範囲の順に低くなる(第二の範囲の下限値は第一の範囲の上限値以下であり、第三の範囲の下限値は第一の範囲の上限値以下である)ものとする。
図4Aは、本具体例において認識精度が第一の範囲に含まれる場合に認識可能なユーザ操作を説明するための説明図である。図4Aに示す例では、情報処理装置1の表示部170に、ユーザの手である操作体H10の認識結果を示すユーザインタフェースU12が表示される。本具体例において、表示部170は透過型のディスプレイであり、ユーザが表示部170を通して見た場合、ユーザインタフェースU12は、図4Aに示すように操作体H10に重畳されるように表示される。
また、図4Aに示すように、ユーザインタフェースU12は、独立して動作可能な5本の指U121〜U129を含んで表示されており、ユーザは多様な操作を実現し得る。例えば、ユーザは操作体H10を用いて所定のジェスチャ操作を行うことで、仮想オブジェクト(不図示)の編集、閲覧に係る選択、移動、拡大縮小、回転、変形等の処理を情報処理装置1に行わせてもよい。操作対象となる仮想オブジェクトは、例えば、3Dモデルであってもよいし、アイコン、ボタン、コントロールパネル等のGUI(グラフィカルユーザインタフェース)、写真やイラスト等の画像、説明文やラベル等のテキストで構成されたコンテンツであってもよい。
例えば、ユーザは、仮想オブジェクトをいずれかの指で叩くようなジェスチャを行うことで、当該仮想オブジェクトを選択することができる。また、ユーザは、二本の指で仮想オブジェクトを挟んで移動させるようなジェスチャを行うことで、当該仮想オブジェクトをつかんで移動させることが可能である。また、ユーザは5本の指を仮想オブジェクトに重ねて、開いたり閉じたりすることで、当該仮想オブジェクトを拡大したり縮小したりさせることが可能である。また、ユーザは、一または複数の指で仮想オブジェクトを押す、引っ張る、ひねる、分割する、壊す等の変形させるようなジェスチャを行うことで、当該仮想オブジェクトを変形させることが可能である。
なお、本開示に係るジェスチャ操作は上記のジェスチャに限定されず、例えば操作体を用いて行われる操作であればよい。本開示に係るジェスチャ操作には、いわゆるタップ、フリック、スワイプ、ドラッグ、ピンチイン、ピンチアウト、回転等が含まれてもよい。
図4Bは、本具体例において認識精度が第二の範囲に含まれる場合に認識可能なユーザ操作を説明するための説明図である。図4Bに示す例においても、情報処理装置1の表示部170に、ユーザの手である操作体H10の認識結果を示すユーザインタフェースU14が、操作体H10に重畳されるように表示される。
図4Bに示すように、ユーザインタフェースU14は、2本指のアームのような形状をしており、本ユーザ操作では、ユーザの手が2本の指を含む操作体として認識されている。例えば、認識部120がユーザの手の開き具合を認識し、制御部150は、ユーザの手の開き具合を図4Bに示す指U142と指U144の開き具合として表示させてもよい。
また、図4Bに示す例において、上記アームで仮想オブジェクトを叩くようなジェスチャ操作、及び上記アームで仮想オブジェクトを挟んで移動させるようなジェスチャ操作に基づき、仮想オブジェクトの選択、及び移動の処理が行われてもよい。
図4Cは、本具体例において認識精度が第三の範囲に含まれる場合のユーザ操作を説明するための説明図である。図4Cに示す例においても、情報処理装置1の表示部170に、ユーザの手である操作体H10の認識結果を示すユーザインタフェースU16が、操作体H10に重畳されるように表示される。
図4Cに示すように、ユーザインタフェースU16は、指が無い円形部U162を含み、本ユーザ操作では、ユーザの手(操作体)の位置は認識されるが、指は認識されていない。図4Cに示す例において、例えばユーザインタフェースU16は吸着力を有し、ユーザは操作体H10を移動させてユーザインタフェースU16を仮想オブジェクトに近づけることで、仮想オブジェクトをユーザインタフェースU16に吸着させることができる。また、ユーザが操作体H10を移動させてユーザインタフェースU16を移動させることで、吸着させた仮想オブジェクトを移動させる処理が行われてもよい。なお、吸着させた仮想オブジェクトの吸着を解除するためには、他のユーザ操作(例えば音声認識)が用いられてもよい。
上述したように、本具体例では、図4Aに示す例における第一のユーザ操作、及び図4Bに示す例における第二のユーザ操作は、共に同じ処理(以下、第一の処理と呼ぶ場合がある)を行わせるためのユーザ操作であってもよい。例えば、図4Aに示す例において二本の指で仮想オブジェクトを挟んで移動させるようなジェスチャ操作と、図4Aに示す例においてアームで仮想オブジェクトを叩くようなジェスチャ操作は、共に選択処理(第一の処理の一例)を行わせるためのユーザ操作である。
また、制御部150は、認識精度が第一の範囲に含まれる場合には、第一の処理とは異なる第二の処理を行わせるためのユーザ操作を認識可能にさせ、認識精度が第二の範囲に含まれる場合には、当該第二の処理を行わせるためのユーザ操作を認識可能にさせなくてもよい。例えば、上述したように図4Aに示す例では、ユーザは5本の指を仮想オブジェクトに重ねて、開いたり閉じたりすることで、拡大縮小処理(第二の処理の一例)を行わせることが可能である。一方、図4Bに示す例において、拡大縮小処理を行わせるためのユーザ操作が認識されない(拡大縮小処理を行わせることが出来ない)ように、制御部150は制御してもよい。もちろん、認識精度が第三の範囲に含まれる場合(図4Cに示す例)についても、同様の制御が行われてもよい。係る構成により、認識精度が低い場合には認識可能なユーザ操作が限定されることで、誤認識を減少させることが可能である。また、認識精度が高い場合、ユーザはより多様なユーザ操作により、より多様な処理を行わせることが可能である。
また、上述したように、本具体例では、より高い範囲に対応するユーザ操作において認識されるユーザの手の指の数は、より低い範囲(他の範囲の下限値よりも上限値が小さい範囲)に対応するユーザ操作において認識されるユーザの手の指の数よりも多い。ユーザ操作において認識される指の数が異なることで、各ユーザ操作は異なる操作として認識され、認識される指の数に応じたユーザインタフェースが表示される。係る構成により、ユーザは表示されるユーザインタフェースが示す指の数で、手の認識精度と認識可能な操作を把握することが可能である。また、認識精度がより高い場合には、ユーザはより複雑な操作が可能であり、より自由度の高い処理を実行させることが出来る。
<4−2.第二の具体例>
上述した第一の具体例では、手の認識に基づくユーザ操作において、認識精度に応じて、認識される指の数が異なる例を説明した。以下では、第二の具体例として、ユーザの指先(例えば人差し指の指先)に関するセンシングデータに基づいて認識されるユーザ操作において、指先の位置に基づいて操作の対象となる操作領域が特定され、認識精度に応じて当該操作領域の大きさが異なる例を説明する。
図5A、Bは、本実施形態に係るユーザ操作の第二の具体例を説明するための説明図である。本具体例において、範囲設定部140は2つの範囲を設定し、第一の範囲より第二の範囲の方が低いものとする。
図5Aは、本具体例において認識精度がより高い第一の範囲に含まれる場合の第一のユーザ操作を説明するための説明図である。また、図5Bは、本具体例において認識精度が第二の範囲に含まれる場合の第二のユーザ操作を説明するための説明図である。
ここで、制御部150は、第一のユーザ操作において操作の対象となる操作領域より、第二のユーザ操作において操作の対象となる操作領域の方が大きいように操作領域を設定してもよい。係る構成により、認識精度が高い場合には、ユーザの指先の形状に合わせた厳密な操作領域が設定されて、より正確に操作可能であり、認識精度が低い場合には、指先周囲のより広い領域に操作領域が設定されて、認識誤差による違和感を受け難くなる。
また、制御部150は、操作領域を示す操作領域指示子を表示部170に表示させてもよい。操作領域指示子は、操作領域の大きさに応じた大きさで表示されてもよく、操作領域の位置に応じた位置に表示されてもよい。係る構成により、ユーザは操作領域を把握することが可能である。
図5A、図5Bに示す例では、情報処理装置1の表示部170に、それぞれ操作領域を示すユーザインタフェース(操作領域指示子)U22、ユーザインタフェース(操作領域指示子)U24が制御部150の制御により表示される。本具体例において、表示部170は透過型のディスプレイであり、ユーザが表示部170を通して見た場合、ユーザインタフェースU22、ユーザインタフェースU24は、図5A、図5Bに示すように操作体H20の指先に重畳されるように表示される。本具体例では、第一のユーザ操作における操作領域より、第二のユーザ操作における操作領域の方が大きいため、図5A、図5Bに示すようにユーザインタフェースU22より、ユーザインタフェースU24の方が大きい。
本具体例において、例えばユーザが操作体H20を用いて、ユーザインタフェースU22、またはユーザインタフェースU24の範囲内に仮想オブジェクトが所定時間停留するように操作することで、仮想オブジェクトの選択処理が行われてもよい。また、認識精度がより高い状態である図5Aに示す例においては、三次元的な指の位置が認識され、仮想オブジェクトに対する接触度合(タッチの強さ)によって、段階的なタッチ操作が認識されてもよい。係る場合、例えば、接触度合によって、仮想オブジェクトの変形処理が行われてもよい。
上述したように、本具体例では、認識精度が高い場合にはユーザ操作の対象となる操作領域がより小さく認識され、制御部150は、より小さい操作領域を示す小さな操作領域指示子を表示させる。また、認識精度が低い場合にはユーザ操作の対象となる操作領域がより大きく認識され、制御部150は、より大きい操作領域を示す大きな操作領域指示子を表示させる。ユーザ操作において認識される操作領域が異なることで、各ユーザ操作は異なる操作として認識部120により認識され、認識される操作領域に応じたユーザインタフェースが表示される。係る構成により、認識精度が高い場合に、ユーザの指先の形状に合わせたユーザインタフェースの表示が行われ、ユーザは高精度に指先位置が認識されていることを把握できると共に、複雑な操作に基づき自由度の高い処理を実行させることが出来る。また、認識精度が低い場合には、指先の周囲により広い範囲のユーザインタフェースが表示されるため、指先位置の認識誤差に対するユーザの違和感が小さくなる。また、認識可能なユーザ操作と操作領域指示子の大きさが対応するため、ユーザは、操作領域指示子の大きさに基づいて、認識可能なユーザ操作を把握することが可能である。
なお、指先の操作領域、及び操作領域を示す操作領域指示子の大きさが異なる例は上記に限定されない。例えば、指先の操作領域は、認識精度が大きくなる程小さく設定され、操作領域に応じた大きさで指先の操作領域を示す操作領域指示子が表示されてもよい。
<4−3.第三の具体例>
上述した第一の具体例、及び第二の具体例では、ユーザ操作が手、または指先の認識に基づく操作である例を説明した。続いて、以下では、第三の具体例として、ユーザの視線に関するセンシングデータに基づいて認識されるユーザ操作の例を説明する。本具体例では、視線の位置に基づいて操作の対象となる操作領域が特定される。
図6A〜Cは、本実施形態に係るユーザ操作の第三の具体例を説明するための説明図である。本具体例において、範囲設定部140は3つの範囲を設定し、第一の範囲、第二の範囲、第三の範囲の順に低くなるものとする。また、図6A〜Cに示す画面W32〜W36は、制御部150の制御により表示部170に表示される画面であり、表示部170は透過型のディスプレイであってもよいし、非透過型のディスプレイであってもよい。
図6Aは、本具体例において認識精度が第一の範囲に含まれる場合のユーザ操作を説明するための説明図である。図6Aに示す例では画面W32に、ユーザの視線位置を中心とした操作領域を示すユーザインタフェース(操作領域指示子)U32が表示される。図6Aに示す例において、ユーザは、例えば視線を移動させることでユーザインタフェースU32を移動させ、一定時間の注視(視線位置を停留させること)により、選択処理を実行させることが可能である。例えば、図6Aにおけるユーザ操作は、ユーザが一点を見ている操作として認識部120により認識されてもよく、ユーザインタフェースU32は、所謂ポインタとして用いられ得る。
図6Bは、本具体例において認識精度が第二の範囲に含まれる場合のユーザ操作を説明するための説明図である。図6Bに示す例では画面W34に、図6Aに示したユーザインタフェースU32よりも大きく、ユーザの視線位置を中心とした操作領域(注視エリア)を示すユーザインタフェース(操作領域指示子)U34が表示される。例えば、図6Bにおけるユーザ操作は、図6Aにおけるユーザ操作と異なり、ユーザが点よりも大きい領域を見ている操作として認識部120により認識されてもよい。図6Bに示す例において、ユーザは、例えば視線を移動させることでユーザインタフェースU34を移動させる処理を実行することが可能であるが、選択処理を実行させるためには、他のユーザ操作(例えば音声認識に基づく操作)を要してもよい。なお、ユーザインタフェースU34のエリア内に仮想オブジェクトが存在した場合には、例えばヒントや選択肢が表示されてもよく、例えば係る状態においてユーザが「決定」と発話することで選択処理が実行されてもよい。
図6Cは、本具体例において、認識精度が第三の範囲に含まれる場合のユーザ操作を説明するための説明図である。図6Cに示す例では画面W36が九つのエリアA10〜A90に分割されて表示され、ユーザの視線位置が存在するエリアに、図6Bに示したユーザインタフェースU34よりも大きく、操作領域を示すユーザインタフェース(操作領域指示子)U36が表示される。例えば、図6Cにおけるユーザ操作は、図6A、及び図6Bにおけるユーザ操作と異なり、ユーザがさらに大きい領域を見ている操作として認識部120により認識されてもよい。ユーザインタフェースU36が存在するエリアに応じて、例えば、上(エリアA20)、下(エリアA80)、左(エリアA40)、右(エリアA60)、正面(エリアA50)等の方向に応じた入力処理が実行されてもよい。例えば、図6Cに示す例では、エリアA40にユーザインタフェースU36が表示されているため、左方向(左方向キー)の入力処理が実行される。
<4−4.第四の具体例>
上記では、手の認識に基づくユーザ操作と、視線認識に基づくユーザ操作の具体例を説明した。続いて、以下では、第四の具体例として、音声パターンの認識に基づいて認識されるユーザ操作の例を説明する。
図7A〜Cは、本実施形態に係るユーザ操作の第四の具体例を説明するための説明図である。本具体例において、範囲設定部140は3つの範囲を設定し、第一の範囲、第二の範囲、第三の範囲の順に低くなるものとする。また、図7A〜Cに示す画面W42〜W46は、制御部150の制御により表示部170に表示される画面であり、表示部170は透過型のディスプレイであってもよいし、非透過型のディスプレイであってもよい。
図7Aは、本具体例において認識精度が第一の範囲に含まれる場合のユーザ操作を説明するための説明図である。図7Aに示す例では画面W42に、エージェント(キャラクタ)U42が表示される。ユーザは、エージェントU42と会話するように自由に音声を入力し、情報処理装置1は不図示のスピーカからエージェントU42が話しているように音声を出力してもよい。例えば、図7Aにおけるユーザ操作は、ユーザが発声した文章による操作として、認識部120により認識されてもよい。
図7Bは、本具体例において認識精度が第二の範囲に含まれる場合のユーザ操作を説明するための説明図である。図7Bに示す例では画面W44に、単語やキーワードでユーザが返答可能な質問文を含むユーザインタフェースU44が表示される。ユーザは、単語やキーワードにより音声入力を行うことが可能であり、入力された音声の認識結果に応じて、入力内容の確認メッセージが表示されてもよい。例えば、図7Bにおけるユーザ操作は、図7Aにおけるユーザ操作とは異なり、ユーザが発声した単語またはキーワードによる操作として、認識部120により認識されてもよい。図7Bの例では入力が単語やキーワードに限定されるため、自由に会話可能な図7Aの例と比較して、認識される音声のパターンの数が少なくなり、より認識精度が低い場合であってもスムーズにユーザの入力を受け付け易くなる。
図7Cは、本具体例において、認識精度が第三の範囲に含まれる場合のユーザ操作を説明するための説明図である。図7Cに示す例では画面W46に、Yes/No等の所定の音声コマンドを含むユーザインタフェースU462、U464と当該音声コマンドで返答可能な質問文を含むユーザインタフェースU466が表示される。ユーザは、所定の音声コマンドにより音声入力を行うことが可能である。例えば、図7Cにおけるユーザ操作は、図7A、及び図7Bにおけるユーザ操作とは異なり、ユーザが発声した所定の音声コマンドによる操作として、認識部120により認識されてもよい。図7Cの例では入力が所定の音声コマンドに限定されるため、図7A、及び図7Bの例と比較して、認識される音声のパターンの数がさらに少なくなり、より認識精度が低い場合であってもスムーズにユーザの入力を受け付け易くなる。
なお、上記では、ユーザ操作に関する通知が、例えば質問文を含むユーザインタフェースの表示により行われる例を説明したが、音声により同様の質問文が出力されて、通知されてもよい。
<<5.ハードウェア構成例>>
以上、本開示の各実施形態を説明した。上述した表示形態選択処理、表示制御処理等の情報処理は、ソフトウェアと、以下に説明する情報処理装置1のハードウェアとの協働により実現される。
図8は、情報処理装置1のハードウェア構成の一例を示す説明図である。図8に示したように、情報処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、入力装置14と、出力装置15と、ストレージ装置16と、撮像装置17と、通信装置18とを備える。
CPU11は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置1内の動作全般を制御する。また、CPU11は、マイクロプロセッサであってもよい。ROM12は、CPU11が使用するプログラムや演算パラメータ等を記憶する。RAM13は、CPU11の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバスにより相互に接続されている。主に、CPU11、ROM12及びRAM13とソフトウェアとの協働により、認識部120、取得部130、範囲設定部140、制御部150、の機能が実現される。
入力装置14は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU11に出力する入力制御回路等から構成されている。情報処理装置1のユーザは、該入力装置14を操作することにより、情報処理装置1に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置15は、例えば、液晶ディスプレイ(LCD)装置、OLED装置、シースルーディスプレイ、及びランプ等の表示装置を含む。さらに、出力装置15は、スピーカ及びヘッドホン等の音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像等を表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。出力装置15は、図2を参照して説明した表示部170に対応する。
ストレージ装置16は、データ格納用の装置である。ストレージ装置16は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置16は、CPU11が実行するプログラムや各種データを格納する。ストレージ装置16は、図2を参照して説明した記憶部160に対応する。
撮像装置17は、光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及びCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。撮像装置17は、図2を参照して説明したセンサ部110に含まれる。
通信装置18は、例えば、通信網に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置18は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース(登録商標)通信装置を含んでもよい。
<<6.むすび>
以上、説明したように、本開示の実施形態によれば、認識精度に応じたユーザ操作が特定されると共に、認識精度に応じたユーザ操作がユーザに通知されるため、ユーザは認識精度に応じたユーザ操作により、より快適に操作することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、情報処理装置1がセンサ部110や認識部120、記憶部160等を備える例を説明したが、本技術はかかる例に限定されない。例えば、情報処理装置1は、センシングデータや、認識結果、認識精度等の情報を他の装置から直接、またはネットワーク等を介して受け取って、ユーザ操作を特定し、制御信号を他の装置に出力してもよい。
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理する必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、情報処理装置1に内蔵されるCPU、ROM及びRAM等のハードウェアに、上述した情報処理装置1の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
センシングデータに基づく認識に係る認識精度を取得する取得部と、
前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御部と、
を備える情報処理装置。
(2)
前記第一のユーザ操作と前記第二のユーザ操作は、同一対象に関するセンシングデータに基づいて認識される、前記(1)に記載の情報処理装置。
(3)
前記第二の範囲の上限値は、前記第一の範囲の下限値以下である、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、認識されるユーザ操作に基づいて所定の処理を行わせ、
前記認識精度が第一の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われる処理の種類は、前記認識精度が第二の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われる処理の種類を含む、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記認識精度が前記第一の範囲に含まれる場合には前記第一のユーザ操作が認識可能であることをユーザに通知させ、前記認識精度が前記第二の範囲に含まれる場合には前記第二のユーザ操作が認識可能であることをユーザに通知させる、前記(4)に記載の情報処理装置。
(6)
前記認識精度は、前記認識における信頼度に基づいて特定される、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記認識精度は、前記センシングデータの誤差または精度に基づいて特定される、前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記第一のユーザ操作、及び前記第二のユーザ操作は、ユーザの手に関するセンシングデータに基づいて認識されるユーザ操作であり、前記第一のユーザ操作において認識される前記ユーザの手の指の数は、前記第二のユーザ操作において認識される前記ユーザの手の指の数よりも多い、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第一のユーザ操作、及び前記第二のユーザ操作は、第一の処理を行わせるためのユーザ操作であり、
前記制御部は前記認識精度が前記第一の範囲に含まれる場合には、前記第一の処理とは異なる第二の処理を行わせるためのユーザ操作を認識可能にさせ、前記認識精度が前記第二の範囲に含まれる場合には、前記第二の処理を行わせるためのユーザ操作を認識可能にさせない、前記(8)に記載の情報処理装置。
(10)
前記制御部は、前記第一のユーザ操作において操作の対象となる操作領域より、前記第二のユーザ操作において操作の対象となる操作領域の方が大きいように操作領域を設定する、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記制御部は、前記操作領域を示す操作領域指示子を表示させ、前記操作領域指示子は、前記操作領域の大きさに応じた大きさで表示される、前記(10)に記載の情報処理装置。
(12)
前記第一のユーザ操作、及び前記第二のユーザ操作は、ユーザの指先に関するセンシングデータ、またはユーザの視線に関するセンシングデータに基づいて認識されるユーザ操作であり、前記操作領域は前記ユーザの指先の位置、または前記ユーザの視線の位置に基づいて特定される、前記(10)に記載の情報処理装置。
(13)
前記第一のユーザ操作、及び前記第二のユーザ操作は、音声パターンの認識に基づいて認識されるユーザ操作であり、前記第一のユーザ操作において認識される音声パターンの数は、前記第二のユーザ操作において認識される音声パターンの数よりも多い、前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
前記第一の範囲と前記第二の範囲を設定する範囲設定部をさらに備える、前記(1)〜(13)のいずれか一項に記載の情報処理装置。
(15)
範囲設定部は、ユーザに関するユーザ情報に基づいて、前記第一の範囲と前記第二の範囲を設定する、前記(14)に記載の情報処理装置。
(16)
前記ユーザ情報は、ユーザの移動速度情報、またはユーザの生体情報を含む、前記(15)に記載の情報処理装置。
(17)
範囲設定部は、ユーザの置かれた環境に関する環境情報に基づいて、前記第一の範囲と前記第二の範囲を設定する、前記(14)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記環境情報は、照度の情報、または混雑度の情報を含む、前記(17)に記載の情報処理装置。
(19)
センシングデータに基づく認識に係る認識精度を取得することと、
前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせるように、プロセッサが制御することと、を含む情報処理方法。
(20)
コンピュータに、
センシングデータに基づく認識に係る認識精度を取得する取得機能と、
前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御機能と、を実現させるためのプログラム。
1 情報処理装置
110 センサ部
120 認識部
130 取得部
140 範囲設定部
150 制御部
160 記憶部
170 表示部

Claims (19)

  1. センシングデータに基づく認識に係る認識精度を取得する取得部と、
    前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御部と、
    を備え
    前記制御部は、前記第一のユーザ操作において操作の対象となる操作領域より、前記第二のユーザ操作において操作の対象となる操作領域の方が大きいように操作領域を設定する、情報処理装置。
  2. 前記第一のユーザ操作と前記第二のユーザ操作は、同一対象に関するセンシングデータに基づいて認識される、請求項1に記載の情報処理装置。
  3. 前記第二の範囲の上限値は、前記第一の範囲の下限値以下である、請求項1または請求項2に記載の情報処理装置。
  4. 前記制御部は、認識されるユーザ操作に基づいて所定の処理を行わせ、
    前記認識精度が第一の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われる処理の種類は、前記認識精度が第二の範囲に含まれる場合に認識可能なユーザ操作に基づいて行われる処理の種類を含む、請求項3に記載の情報処理装置。
  5. 前記制御部は、前記認識精度が前記第一の範囲に含まれる場合には前記第一のユーザ操作が認識可能であることをユーザに通知させ、前記認識精度が前記第二の範囲に含まれる場合には前記第二のユーザ操作が認識可能であることをユーザに通知させる、請求項4に記載の情報処理装置。
  6. 前記認識精度は、前記認識における信頼度に基づいて特定される、請求項1乃至請求項5の何れか1項に記載の情報処理装置。
  7. 前記認識精度は、前記センシングデータの誤差または精度に基づいて特定される、請求項1乃至請求項6の何れか1項に記載の情報処理装置。
  8. 前記第一のユーザ操作、及び前記第二のユーザ操作は、ユーザの手に関するセンシングデータに基づいて認識されるユーザ操作であり、前記第一のユーザ操作において認識される前記ユーザの手の指の数は、前記第二のユーザ操作において認識される前記ユーザの手の指の数よりも多い、請求項1乃至請求項7の何れか1項に記載の情報処理装置。
  9. 前記第一のユーザ操作、及び前記第二のユーザ操作は、第一の処理を行わせるためのユーザ操作であり、
    前記制御部は前記認識精度が前記第一の範囲に含まれる場合には、前記第一の処理とは異なる第二の処理を行わせるためのユーザ操作を認識可能にさせ、前記認識精度が前記第二の範囲に含まれる場合には、前記第二の処理を行わせるためのユーザ操作を認識可能にさせない、請求項8に記載の情報処理装置。
  10. 前記制御部は、前記操作領域を示す操作領域指示子を表示させ、前記操作領域指示子は、前記操作領域の大きさに応じた大きさで表示される、請求項に記載の情報処理装置。
  11. 前記第一のユーザ操作、及び前記第二のユーザ操作は、ユーザの指先に関するセンシングデータ、またはユーザの視線に関するセンシングデータに基づいて認識されるユーザ操作であり、前記操作領域は前記ユーザの指先の位置、または前記ユーザの視線の位置に基づいて特定される、請求項に記載の情報処理装置。
  12. 前記第一のユーザ操作、及び前記第二のユーザ操作は、音声パターンの認識に基づいて認識されるユーザ操作であり、前記第一のユーザ操作において認識される音声パターンの数は、前記第二のユーザ操作において認識される音声パターンの数よりも多い、請求項1乃至請求項11の何れか1項に記載の情報処理装置。
  13. 前記第一の範囲と前記第二の範囲を設定する範囲設定部をさらに備える、請求項1乃至請求項12の何れか1項に記載の情報処理装置。
  14. 範囲設定部は、ユーザに関するユーザ情報に基づいて、前記第一の範囲と前記第二の範囲を設定する、請求項13に記載の情報処理装置。
  15. 前記ユーザ情報は、ユーザの移動速度情報、またはユーザの生体情報を含む、請求項14に記載の情報処理装置。
  16. 範囲設定部は、ユーザの置かれた環境に関する環境情報に基づいて、前記第一の範囲と前記第二の範囲を設定する、請求項13乃至請求項15の何れか1項に記載の情報処理装置。
  17. 前記環境情報は、照度の情報、または混雑度の情報を含む、請求項16に記載の情報処理装置。
  18. センシングデータに基づく認識に係る認識精度を取得することと、
    前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせるように、プロセッサが制御することと、
    前記第一のユーザ操作において操作の対象となる操作領域より、前記第二のユーザ操作において操作の対象となる操作領域の方が大きいように操作領域を設定することと、を含む情報処理方法。
  19. コンピュータに、
    センシングデータに基づく認識に係る認識精度を取得する取得機能と、
    前記認識精度が第一の範囲に含まれる場合には、第一のユーザ操作を認識可能にさせ、前記認識精度が第一の範囲とは異なる第二の範囲に含まれる場合には、前記第一のユーザ操作とは異なり、前記第一のユーザ操作に関連する第二のユーザ操作を認識可能にさせる制御機能と、
    前記第一のユーザ操作において操作の対象となる操作領域より、前記第二のユーザ操作において操作の対象となる操作領域の方が大きいように操作領域を設定する機能と、を実現させるためのプログラム。
JP2017556401A 2015-12-18 2016-10-26 情報処理装置、情報処理方法、及びプログラム Active JP6841232B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015247184 2015-12-18
JP2015247184 2015-12-18
PCT/JP2016/081755 WO2017104272A1 (ja) 2015-12-18 2016-10-26 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017104272A1 JPWO2017104272A1 (ja) 2018-10-04
JP6841232B2 true JP6841232B2 (ja) 2021-03-10

Family

ID=59056538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017556401A Active JP6841232B2 (ja) 2015-12-18 2016-10-26 情報処理装置、情報処理方法、及びプログラム

Country Status (6)

Country Link
US (1) US10963063B2 (ja)
EP (1) EP3392740A4 (ja)
JP (1) JP6841232B2 (ja)
KR (1) KR20180094875A (ja)
CN (1) CN108369451B (ja)
WO (1) WO2017104272A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
KR20180068578A (ko) 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
JP7236529B2 (ja) * 2019-03-18 2023-03-09 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JPWO2021199408A1 (ja) * 2020-04-02 2021-10-07
WO2024090299A1 (ja) * 2022-10-24 2024-05-02 ソニーグループ株式会社 情報処理装置及び情報処理方法

Family Cites Families (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3180655B2 (ja) * 1995-06-19 2001-06-25 日本電信電話株式会社 パターンマッチングによる単語音声認識方法及びその方法を実施する装置
JP2780676B2 (ja) * 1995-06-23 1998-07-30 日本電気株式会社 音声認識装置及び音声認識方法
US8610674B2 (en) * 1995-06-29 2013-12-17 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP3627299B2 (ja) * 1995-07-19 2005-03-09 ソニー株式会社 音声認識方法及び装置
US6885990B1 (en) * 1999-05-31 2005-04-26 Nippon Telegraph And Telephone Company Speech recognition based on interactive information retrieval scheme using dialogue control to reduce user stress
JP4624594B2 (ja) * 2000-06-28 2011-02-02 パナソニック株式会社 物体認識方法および物体認識装置
US20020184019A1 (en) * 2001-05-31 2002-12-05 International Business Machines Corporation Method of using empirical substitution data in speech recognition
EP1271346A1 (en) * 2001-06-28 2003-01-02 Nokia Corporation Method for searching data in at least two databases
US7200270B2 (en) * 2001-12-13 2007-04-03 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method using distributed model representation of partial images
JP2003308480A (ja) * 2002-04-16 2003-10-31 Fujitsu Ltd オンライン手書き文字パターン認識編集装置及び方法並びに当該方法を実現するコンピュータ実行可能なプログラム
JP3919617B2 (ja) * 2002-07-09 2007-05-30 キヤノン株式会社 文字認識装置および文字認識方法、プログラムおよび記憶媒体
JP4413867B2 (ja) * 2003-10-03 2010-02-10 旭化成株式会社 データ処理装置及びデータ処理装置制御プログラム
US7508986B2 (en) * 2003-11-28 2009-03-24 Canon Kabushiki Kaisha Document recognition device, document recognition method and program, and storage medium
JP4040573B2 (ja) * 2003-12-12 2008-01-30 キヤノン株式会社 音声認識装置および方法
KR20050059766A (ko) * 2003-12-15 2005-06-21 엘지전자 주식회사 동적 시간 워핑을 이용한 음성 인식 방법
JP4481663B2 (ja) * 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
JP3714350B2 (ja) * 2004-01-27 2005-11-09 セイコーエプソン株式会社 画像中の人物候補領域抽出方法及び人物候補領域抽出システム並びに人物候補領域抽出プログラム
JP4297798B2 (ja) * 2004-01-29 2009-07-15 富士通株式会社 移動体情報管理プログラム
EP1728142B1 (en) * 2004-03-23 2010-08-04 Fujitsu Ltd. Distinguishing tilt and translation motion components in handheld devices
JP4708422B2 (ja) * 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
KR100705563B1 (ko) * 2004-12-07 2007-04-10 삼성전자주식회사 입력 레벨 자동 조절을 위한 음성 인식 시스템 및 이를이용한 음성 인식 방법
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
KR100679044B1 (ko) * 2005-03-07 2007-02-06 삼성전자주식회사 사용자 적응형 음성 인식 방법 및 장치
US7865018B2 (en) * 2005-06-02 2011-01-04 Microsoft Corporation Personalized implicit and explicit character shape adaptation and recognition
JP4765461B2 (ja) * 2005-07-27 2011-09-07 日本電気株式会社 雑音抑圧システムと方法及びプログラム
JP2007193422A (ja) * 2006-01-17 2007-08-02 Fujitsu Ltd 対話型の情報処理システム、およびサービス・シナリオ用のヘルプ・シナリオを提供する方法
JP2007233871A (ja) * 2006-03-02 2007-09-13 Fuji Xerox Co Ltd 画像処理装置、コンピュータの制御方法及びプログラム
JP2007233873A (ja) * 2006-03-02 2007-09-13 Toshiba Corp パターン認識装置及びその方法
JP4786384B2 (ja) * 2006-03-27 2011-10-05 株式会社東芝 音声処理装置、音声処理方法および音声処理プログラム
US7869657B2 (en) * 2006-06-12 2011-01-11 D & S Consultants, Inc. System and method for comparing images using an edit distance
US7734094B2 (en) * 2006-06-28 2010-06-08 Microsoft Corporation Techniques for filtering handwriting recognition results
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
WO2008022156A2 (en) * 2006-08-14 2008-02-21 Neural Id, Llc Pattern recognition system
JP4393494B2 (ja) * 2006-09-22 2010-01-06 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
KR101312625B1 (ko) * 2006-11-03 2013-10-01 삼성전자주식회사 동작 추적 장치 및 방법
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
CN101622660A (zh) * 2007-02-28 2010-01-06 日本电气株式会社 语音识别装置、语音识别方法及语音识别程序
WO2008107002A1 (en) * 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
WO2008131201A1 (en) * 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US20090100383A1 (en) * 2007-10-16 2009-04-16 Microsoft Corporation Predictive gesturing in graphical user interface
US20120053446A1 (en) * 2007-11-21 2012-03-01 Parascript Llc Voting in image processing
US8311296B2 (en) * 2007-11-21 2012-11-13 Parascript, Llc Voting in mammography processing
US8195220B2 (en) * 2008-02-01 2012-06-05 Lg Electronics Inc. User interface for mobile devices
JP5075664B2 (ja) * 2008-02-15 2012-11-21 株式会社東芝 音声対話装置及び支援方法
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US8364481B2 (en) * 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
JP5116608B2 (ja) * 2008-08-20 2013-01-09 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
JP4561914B2 (ja) * 2008-09-22 2010-10-13 ソニー株式会社 操作入力装置、操作入力方法、プログラム
EP2346014B1 (en) * 2008-10-02 2018-04-11 Hitachi Automotive Systems, Ltd. Information processing device associated with vehicle traveling
JP5175754B2 (ja) * 2009-02-04 2013-04-03 株式会社東芝 線形変換行列算出装置、その方法、及び、そのプログラム
JP5709410B2 (ja) * 2009-06-16 2015-04-30 キヤノン株式会社 パターン処理装置及びその方法、プログラム
KR20110003146A (ko) * 2009-07-03 2011-01-11 한국전자통신연구원 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법
KR101411593B1 (ko) * 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
US8515763B2 (en) * 2009-11-24 2013-08-20 Honeywell International Inc. Methods and systems for utilizing voice commands onboard an aircraft
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
JP5624998B2 (ja) * 2009-12-25 2014-11-12 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP5569062B2 (ja) * 2010-03-15 2014-08-13 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム
US9053393B2 (en) * 2010-03-19 2015-06-09 Canon Kabushiki Kaisha Learning method and apparatus for pattern recognition
US9477324B2 (en) * 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
JP5675145B2 (ja) * 2010-03-30 2015-02-25 キヤノン株式会社 パターン認識装置及びパターン認識方法
US20170017393A1 (en) * 2010-04-23 2017-01-19 Handscape Inc., A Delaware Corporation Method for controlling interactive objects from a touchpad of a computerized device
US9891820B2 (en) * 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US20110289455A1 (en) * 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
JP5675233B2 (ja) * 2010-09-09 2015-02-25 キヤノン株式会社 情報処理装置、その認識方法及びプログラム
JP5639832B2 (ja) * 2010-09-30 2014-12-10 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理システム、及び情報処理装置
US10456209B2 (en) * 2010-10-13 2019-10-29 Gholam A. Peyman Remote laser treatment system with dynamic imaging
JP5738569B2 (ja) * 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
JP5617581B2 (ja) * 2010-12-08 2014-11-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、制御プログラム、および、記録媒体
KR20120080072A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 모션에 의해 제어되는 디스플레이 장치 및 그 모션 제어 방법
JP5844288B2 (ja) * 2011-02-01 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路
WO2012117508A1 (ja) * 2011-02-28 2012-09-07 株式会社Pfu 情報処理装置、方法およびプログラム
JP5017466B1 (ja) * 2011-02-28 2012-09-05 株式会社東芝 情報処理装置およびプログラム
US9189068B2 (en) * 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
EP2499961B1 (en) * 2011-03-18 2016-09-21 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Spectacle device with an adjustable field of view and method
JP5668587B2 (ja) * 2011-04-19 2015-02-12 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR101514168B1 (ko) * 2011-04-28 2015-04-21 엔이씨 솔루션 이노베이터 가부시키가이샤 정보 처리 장치, 정보 처리 방법 및 기록 매체
JP5755046B2 (ja) * 2011-06-22 2015-07-29 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP5786495B2 (ja) * 2011-06-30 2015-09-30 富士通株式会社 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
WO2013022135A1 (en) * 2011-08-11 2013-02-14 Lg Electronics Inc. Electronic device and method of controlling the same
US8830302B2 (en) * 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
JP2013069224A (ja) * 2011-09-26 2013-04-18 Sony Corp 動作認識装置、動作認識方法、操作装置、電子機器、及び、プログラム
JP5879877B2 (ja) * 2011-09-28 2016-03-08 沖電気工業株式会社 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP2013080413A (ja) * 2011-10-05 2013-05-02 Sony Corp 入力装置、入力認識方法
TW201322058A (zh) * 2011-11-16 2013-06-01 Chunghwa Picture Tubes Ltd 手勢辨識系統及方法
US9025082B2 (en) * 2011-12-02 2015-05-05 Sony Corporation Image processing device, image recognition device, image recognition method, and program
JP2013140529A (ja) * 2012-01-06 2013-07-18 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP2013145463A (ja) * 2012-01-13 2013-07-25 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP6196017B2 (ja) * 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP5957893B2 (ja) * 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
US8693731B2 (en) * 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
JP2013161209A (ja) * 2012-02-03 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101330810B1 (ko) * 2012-02-24 2013-11-18 주식회사 팬택 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
JP5978660B2 (ja) * 2012-03-06 2016-08-24 ソニー株式会社 情報処理装置及び情報処理方法
US8861802B2 (en) * 2012-03-13 2014-10-14 Honeywell International Inc. Face image prioritization based on face quality analysis
JP6028351B2 (ja) * 2012-03-16 2016-11-16 ソニー株式会社 制御装置、電子機器、制御方法、及びプログラム
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
JP5900161B2 (ja) * 2012-05-29 2016-04-06 ソニー株式会社 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体
JP6044819B2 (ja) * 2012-05-30 2016-12-14 日本電気株式会社 情報処理システム、情報処理方法、通信端末、情報処理装置およびその制御方法と制御プログラム
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
JP6039248B2 (ja) * 2012-06-04 2016-12-07 キヤノン株式会社 情報処理装置およびその制御方法
JP6095283B2 (ja) * 2012-06-07 2017-03-15 キヤノン株式会社 情報処理装置、およびその制御方法
US20130328925A1 (en) * 2012-06-12 2013-12-12 Stephen G. Latta Object focus in a mixed reality environment
US9349366B2 (en) * 2012-06-13 2016-05-24 Wearsafe Labs Llc Systems and methods for managing an emergency situation
US9704377B2 (en) * 2012-06-13 2017-07-11 Wearsafe Labs, Llc Systems and methods for managing an emergency situation
KR102040857B1 (ko) * 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
JP5949319B2 (ja) * 2012-08-21 2016-07-06 富士通株式会社 視線検出装置及び視線検出方法
JP6112801B2 (ja) * 2012-08-22 2017-04-12 キヤノン株式会社 画像認識装置及び画像認識方法
JP6015250B2 (ja) * 2012-08-31 2016-10-26 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム
US20140062864A1 (en) * 2012-09-03 2014-03-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting three-dimensional distance information from recognition target
WO2014038323A1 (ja) * 2012-09-06 2014-03-13 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US9959865B2 (en) * 2012-11-13 2018-05-01 Beijing Lenovo Software Ltd. Information processing method with voice recognition
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5652886B2 (ja) * 2012-11-28 2015-01-14 Necカシオモバイルコミュニケーションズ株式会社 顔認証装置、認証方法とそのプログラム、情報機器
JP6202810B2 (ja) * 2012-12-04 2017-09-27 アルパイン株式会社 ジェスチャ認識装置および方法ならびにプログラム
US9020189B2 (en) * 2012-12-07 2015-04-28 The Nielsen Company (Us), Llc Methods and apparatus to monitor environments
JP6030430B2 (ja) * 2012-12-14 2016-11-24 クラリオン株式会社 制御装置、車両及び携帯端末
US9589197B2 (en) * 2012-12-20 2017-03-07 Unicredit S.P.A. Method for biometric recognition with clustering of registered data for POS/ATM applications
WO2014095071A1 (en) * 2012-12-21 2014-06-26 Harman Becker Automotive Systems Gmbh System for a vehicle
US9619021B2 (en) * 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
JP2014153663A (ja) * 2013-02-13 2014-08-25 Sony Corp 音声認識装置、および音声認識方法、並びにプログラム
JP6195893B2 (ja) * 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
JP6075110B2 (ja) * 2013-02-21 2017-02-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
US9292923B2 (en) * 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
JP6051991B2 (ja) * 2013-03-21 2016-12-27 富士通株式会社 信号処理装置、信号処理方法、及び信号処理プログラム
JP2014182748A (ja) * 2013-03-21 2014-09-29 Fujitsu Ltd 信号処理装置、信号処理方法、及び信号処理プログラム
US10466795B2 (en) * 2013-03-29 2019-11-05 Lg Electronics Inc. Mobile input device and command input method using the same
CN105074625B (zh) * 2013-04-02 2018-09-21 索尼公司 信息处理设备、信息处理方法及计算机可读记录介质
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
KR20140131093A (ko) * 2013-05-03 2014-11-12 삼성전자주식회사 음성 인식을 위한 방법 및 그 전자 장치
US9934451B2 (en) * 2013-06-25 2018-04-03 Microsoft Technology Licensing, Llc Stereoscopic object detection leveraging assumed distance
US9218811B2 (en) * 2013-06-28 2015-12-22 Google Technology Holdings LLC Electronic device and method for managing voice entered text using gesturing
CN105393281B (zh) * 2013-08-02 2018-02-13 三菱电机株式会社 手势判定装置和方法、手势操作装置
CN104423578B (zh) * 2013-08-25 2019-08-06 杭州凌感科技有限公司 交互式输入系统和方法
JP6202942B2 (ja) * 2013-08-26 2017-09-27 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
CN103530060B (zh) * 2013-10-31 2016-06-22 京东方科技集团股份有限公司 显示装置及其控制方法、手势识别方法
CN103530061B (zh) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 显示装置及控制方法
JP6194777B2 (ja) * 2013-11-29 2017-09-13 富士通株式会社 動作判定方法、動作判定装置および動作判定プログラム
CN103616994A (zh) * 2013-12-09 2014-03-05 珠海金山办公软件有限公司 电子设备控制方法及装置
KR101700817B1 (ko) * 2014-01-10 2017-02-13 한국전자통신연구원 3차원 영상을 이용한 다수의 팔 및 손 검출 장치 및 그 방법
JP6587185B2 (ja) * 2014-01-14 2019-10-09 パナソニックIpマネジメント株式会社 距離画像生成装置及び距離画像生成方法
JPWO2015108112A1 (ja) * 2014-01-15 2017-03-23 株式会社Juice Design 操作判定装置、操作判定方法、および、プログラム
JP2015138449A (ja) * 2014-01-23 2015-07-30 キヤノン株式会社 個人認証装置、個人認証方法及びプログラム
JP6349800B2 (ja) * 2014-03-12 2018-07-04 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP5861072B2 (ja) * 2014-03-06 2016-02-16 パナソニックIpマネジメント株式会社 表示制御装置、表示装置および表示制御プログラム
JP6440115B2 (ja) * 2014-03-06 2018-12-19 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
EP3118761B1 (en) * 2014-03-13 2021-05-12 LG Electronics Inc. Mobile terminal and method for controlling same
CN106233227B (zh) * 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
US9990046B2 (en) * 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US20150294639A1 (en) * 2014-04-14 2015-10-15 Sony Corporation Method and system for switching a mode of an electronic device
KR101655810B1 (ko) * 2014-04-22 2016-09-22 엘지전자 주식회사 차량용 디스플레이 장치
CN107087431B (zh) * 2014-05-09 2021-02-05 谷歌有限责任公司 用于辨别眼睛信号和连续生物识别的系统和方法
US10564714B2 (en) * 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
JP6440513B2 (ja) * 2014-05-13 2018-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識機能を用いた情報提供方法および機器の制御方法
KR102216048B1 (ko) * 2014-05-20 2021-02-15 삼성전자주식회사 음성 명령 인식 장치 및 방법
KR102185564B1 (ko) * 2014-07-09 2020-12-02 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10248881B2 (en) * 2014-08-27 2019-04-02 Nec Corporation Information processing device and recognition support method
CN104317391B (zh) * 2014-09-24 2017-10-03 华中科技大学 一种基于立体视觉的三维手掌姿态识别交互方法和系统
JP2016091383A (ja) * 2014-11-06 2016-05-23 富士通株式会社 携帯端末装置、画面制御方法及び画面制御プログラム
US9911235B2 (en) * 2014-11-14 2018-03-06 Qualcomm Incorporated Spatial interaction in augmented reality
KR101643573B1 (ko) * 2014-11-21 2016-07-29 한국과학기술연구원 얼굴 표정 정규화를 통한 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
US9750420B1 (en) * 2014-12-10 2017-09-05 Amazon Technologies, Inc. Facial feature selection for heart rate detection
US10347108B2 (en) * 2015-01-16 2019-07-09 City University Of Hong Kong Monitoring user activity using wearable motion sensing device
WO2016140924A1 (en) * 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
JP6651705B2 (ja) * 2015-03-31 2020-02-19 日本電気株式会社 情報処理装置、情報処理方法、およびプログラム
DE112016001815T5 (de) * 2015-04-20 2017-12-28 Mitsubishi Electric Corporation Informationsanzeigevorrichtung und Informationsanzeigeverfahren
JP6596376B2 (ja) * 2015-04-22 2019-10-23 パナソニック株式会社 話者識別方法及び話者識別装置
JP6618276B2 (ja) * 2015-05-29 2019-12-11 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6554169B2 (ja) * 2015-06-10 2019-07-31 株式会社日立製作所 物体認識装置及び物体認識システム
US10360441B2 (en) * 2015-11-25 2019-07-23 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus
WO2017099199A1 (ja) * 2015-12-10 2017-06-15 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US10318008B2 (en) * 2015-12-15 2019-06-11 Purdue Research Foundation Method and system for hand pose detection

Also Published As

Publication number Publication date
KR20180094875A (ko) 2018-08-24
EP3392740A4 (en) 2018-12-19
WO2017104272A1 (ja) 2017-06-22
EP3392740A1 (en) 2018-10-24
CN108369451B (zh) 2021-10-29
US10963063B2 (en) 2021-03-30
US20180299963A1 (en) 2018-10-18
JPWO2017104272A1 (ja) 2018-10-04
CN108369451A (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
JP7465952B2 (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
JP6841232B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
JP2024509722A (ja) エクステンデッドリアリティにおけるユーザ相互作用
CN115280262A (zh) 用于提供计算机生成的体验的设备、方法和图形用户界面
US11853527B2 (en) Devices, methods, and graphical user interfaces for providing computer-generated experiences
CN116097209A (zh) 人工现实交互模式的整合
US11567625B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US20220262080A1 (en) Interfaces for presenting avatars in three-dimensional environments
US20200103961A1 (en) IMU for Touch Detection
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
US20230259265A1 (en) Devices, methods, and graphical user interfaces for navigating and inputting or revising content
US20230100689A1 (en) Methods for interacting with an electronic device
JPWO2017110178A1 (ja) 情報処理装置、情報処理方法及びプログラム
US20240094819A1 (en) Devices, methods, and user interfaces for gesture-based interactions
US20240152244A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240104860A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
WO2022177900A1 (en) Interfaces for presenting avatars in three-dimensional environments
WO2024064016A1 (en) Devices, methods, and user interfaces for gesture-based interactions
CN117193538A (zh) 用于在三维环境中呈现化身的界面

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R151 Written notification of patent or utility model registration

Ref document number: 6841232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151