JP2023532794A - ユーザ機器からの視覚フィードバック - Google Patents

ユーザ機器からの視覚フィードバック Download PDF

Info

Publication number
JP2023532794A
JP2023532794A JP2023501204A JP2023501204A JP2023532794A JP 2023532794 A JP2023532794 A JP 2023532794A JP 2023501204 A JP2023501204 A JP 2023501204A JP 2023501204 A JP2023501204 A JP 2023501204A JP 2023532794 A JP2023532794 A JP 2023532794A
Authority
JP
Japan
Prior art keywords
user equipment
user
visual feedback
gesture sensor
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023501204A
Other languages
English (en)
Inventor
アンドレアス クリステンション,
フレドリック ダールグレン,
アレクサンダー ハント,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2023532794A publication Critical patent/JP2023532794A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

ユーザ機器(100)が提供される。本ユーザ機器(100)は本体(110)を有する。本ユーザ機器は、アクティブ化されたとき、本体(110)の外の、および本体(110)からの少なくとも1つの方向における、本ユーザ機器(100)と対話するユーザ(300)の動きを検出するように設定された、少なくとも1つのジェスチャーセンサー(120)を備える。本ユーザ機器は、ジェスチャーセンサー(120)のアクティブ化の視覚フィードバックを提供するように設定された視覚ユーザインターフェース(130a1、130a2、130b)を備える。視覚フィードバックは、本体(110)からの少なくとも1つのどの方向において、ジェスチャーセンサー(120)を使用した動きの検出がアクティブ化されたかを指示する。【選択図】図4

Description

本明細書で提示される実施形態は、ユーザ機器と、ユーザ機器から視覚フィードバックを提供するための方法、コンピュータプログラム、およびコンピュータプログラム製品とに関する。
いわゆるスマートフォン、タブレットコンピュータ、スマートウォッチなど、多くのタイプのユーザ機器が、ユーザとの対話のためのタッチスクリーンディスプレイに関してユーザインターフェースを装備する。これらのユーザインターフェースは、ユーザが1つまたは複数の指でディスプレイにタッチすること、およびあるやり方で指を動かすこと、したがって、ユーザインターフェースによってある特定の意味を有するものとして解釈され得るジェスチャーを作成することに基づく、ユーザとの対話に基づく。
いくつかのアプリケーションまたはナビゲーションシナリオでは、たとえば、ディスプレイのサイズにそれ自体関係しないコンテンツをスクロールする、タッチスクリーンディスプレイへのタッチ入力は、タッチスクリーンディスプレイの実際の物理的サイズによって制限される。たとえば、スクロールが正確であるために、一般的なジェスチャーは、ユーザがタッチスクリーンディスプレイにおいて指をゆっくり動かすことであり、1つの単一のジェスチャーを使用したスクロールの量は、一般的に、指をタッチスクリーンディスプレイの端部まで動かし、その後に、スクロールが停止することに制限される。たとえば、スクロールが高速であるために、一般的なジェスチャーは、ユーザがタッチスクリーンディスプレイにおいて指を高速に動かし、次いで、その指を持ち上げ、スクロールを、ホイールを回転させるのと同様になるようにすることである。第1のタイプのスクロールは、第2のタイプのスクロールよりも遅いことによって制限されるが、第2のタイプのスクロールは、第1のスクロールほど正確でないことによって制限される。このより多くの例が、ユーザインターフェースと対話するとき、ユーザ体感を制限する。
したがって、いくつかのタイプのユーザ機器は、ユーザ機器の周囲の空間のいくつかの部分において動きのジェスチャー認識または検出を可能にする、レーダーセンサーなどの1つまたは複数のタイプのセンサーを装備する。拡張現実インターフェース中の表示された物体とのユーザ対話の容易さおよび精度を促進するスマートフォンベースレーダーシステムを可能にする技法およびシステムの例が、文献米国特許出願公開第20200064996(A1)号において提供される。しかしながら、そのようなユーザ機器はまた、欠点を有する。たとえば、ジェスチャーが検出されたかどうか、さらには、追跡がそのようにアクティブであることの不確実性があり得る。
したがって、依然として、ユーザ機器のユーザインターフェースと対話するユーザのためのユーザ体感を改善する手段が必要である。
本明細書の実施形態の目的は、ユーザによるユーザ機器との効率的な対話のための手段を提供することである。
第1の態様によれば、ユーザ機器が提示される。本ユーザ機器は本体を有する。本ユーザ機器は、アクティブ化されたとき、本体の外の、および本体からの少なくとも1つの方向における、本ユーザ機器と対話するユーザの動きを検出するように設定された、少なくとも1つのジェスチャーセンサーを備える。本ユーザ機器は、ジェスチャーセンサーのアクティブ化の視覚フィードバックを提供するように設定された視覚ユーザインターフェースを備える。視覚フィードバックは、本体からの少なくとも1つのどの方向において、ジェスチャーセンサーを使用した動きの検出がアクティブ化されたかを指示する。
第2の態様によれば、ユーザ機器から視覚フィードバックを提供するための方法が提示される。本方法は、第1の態様によるユーザ機器によって実施される。本方法は、本体の外の、および本体からの少なくとも1つの方向における、ユーザ機器と対話するユーザの動きを検出するために、少なくとも1つのジェスチャーセンサーをアクティブ化することを含む。本方法は、ジェスチャーセンサーがアクティブ化されたことの視覚フィードバックを提供することを含む。視覚フィードバックは、本体からの少なくとも1つのどの方向において、ジェスチャーセンサーを使用した動きの検出がアクティブ化されたかを指示する。
第3の態様によれば、ユーザ機器から視覚フィードバックを提供するためのコンピュータプログラムが提示され、本コンピュータプログラムは、第1の態様によるユーザ機器上で起動するとき、ユーザ機器に、第2の態様による方法を実施させるコンピュータプログラムコードを備える。
第4の態様によれば、第3の態様によるコンピュータプログラムと、コンピュータプログラムが記憶されるコンピュータ可読記憶媒体とを備えるコンピュータプログラム製品が提示される。コンピュータ可読記憶媒体は、非一時的コンピュータ可読記憶媒体であり得る。
ジェスチャーセンサーがアクティブ化されたか否かは、ユーザ機器の技術的条件である。視覚フィードバックは、視覚インジケータの一例である。したがって、これらの態様は、有利には、ユーザ機器の技術的条件の視覚指示を提供する。
有利には、これらの態様は、ユーザ機器のユーザインターフェースと対話するユーザのためのユーザ体感を改善する。
有利には、これらの態様は、ユーザが、ジェスチャーセンサーがアクティブ化されたことを知るための効率的な手段を提供する。
有利には、これらの態様は、ユーザが、1つまたは複数のどの方向において、ジェスチャーセンサーによって実施される動き検出が実施されたかを知るための効率的な手段を提供する。
同封の実施形態の他の目標、特徴、および利点は、以下の詳細な開示から、添付の従属請求項から、ならびに図面から明らかとなるであろう。
概して、特許請求の範囲において使用されるすべての用語は、本明細書で別段明示的に規定されない限り、本技術分野におけるその通例の意味に従って解釈されるべきである。「1つの(a/an)/その(the)エレメント、装置、構成要素、手段、モジュール、ステップなど」へのすべての言及は、別段明示的に述べられていない限り、そのエレメント、装置、構成要素、手段、モジュール、ステップなどの少なくとも1つの事例を指すようにオープンに解釈されるべきである。本明細書で開示されるいずれの方法のステップも、明示的に述べられていない限り、開示される厳密な順序で実施される必要はない。
次に、例として、添付の図面を参照しながら、本発明の概念が説明される。
実施形態によるユーザ機器を示す概略図である。 実施形態によるユーザ機器を示す概略図である。 実施形態によるユーザ機器を示す概略図である。 実施形態によるユーザ機器を示す概略図である。 実施形態によるユーザ機器を示す概略図である。 実施形態によるユーザ機器を示す概略図である。 実施形態による方法のフローチャートである。 一実施形態によるユーザ機器の機能ユニットを示す概略図である。 一実施形態によるユーザ機器の機能モジュールを示す概略図である。 一実施形態によるコンピュータ可読記憶媒体を備えるコンピュータプログラム製品の一例を示す図である。
次に、本発明の概念のいくつかの実施形態が示された添付の図面を参照しながら、本発明の概念が以下でより十分に説明される。しかしながら、本発明の概念は、多くの異なる形態で具現化され得、本明細書に記載される実施形態に限定されるものとして解釈されるべきではなく、むしろ、これらの実施形態は、本開示が徹底的かつ完全であり、本発明の概念の範囲を当業者に十分に伝えるように、例として提供される。同様の番号は、説明全体にわたって同様のエレメントを指す。破線によって示される任意のステップまたは特徴は、随意と見なされるべきである。
上述のように、依然として、ユーザ機器のユーザインターフェースと対話するユーザのためのユーザ体感を改善する手段が必要である。
さらに、ユーザが、ユーザ機器のユーザインターフェースと対話しているときの状況に起因する異なるタイプのあいまいさがあり得る。たとえば、ユーザが、そのように(ジェスチャーセンサーによって実施される)動き検出がアクティブであるか否かに関して見分けることは困難であり得る。たとえば、そのように動き検出がアクティブであることが確認され得る場合でも、ユーザの存在が検出されたか否か(指の存在が検出されたか否かなど)に関して見分けることは困難であり得る。たとえば、そのようにユーザの存在が検出されたことが確認され得る場合でも、ジェスチャーセンサーが、意図されたジェスチャーに従ってユーザの動きを正確に解釈することが可能であるか否かに関して見分けることは困難であり得る。たとえば、ユーザの動きが、意図されたジェスチャーに従って解釈されないことが確認され得る場合でも、そのような誤解がハードウェア(たとえば、ジェスチャーセンサー)に依存するのか、ソフトウェア(たとえば、ジェスチャーセンサーからの情報が入力として使用されるアプリケーション)に依存するのかに関して見分けることは困難であり得る。
したがって、本明細書で開示される実施形態は、挿入目的のための機構に関する。そのような機構を取得するために、ユーザ機器100と、ユーザ機器100によって実施される方法と、たとえばコンピュータプログラムの形態の、コードを備えるコンピュータプログラム製品とが提供され、コードは、ユーザ機器100上で起動するとき、ユーザ機器100に方法を実施させる。
図1は、一実施形態によるユーザ機器100を示す、斜視図の観点からの概略図である。ユーザ機器100の非限定的な例は、モバイルフォン、タブレットコンピュータ、スマートウォッチなどである。
ユーザ機器100は本体110を有する。本体は、上面140と、底面150と、上面140と底面150との間に延びるフレーム160とによって画定される。ユーザ機器は、延びる、リムまたは境界170によって画定されたタッチスクリーンディスプレイ130bを備える。
ユーザ機器100は、少なくとも1つのジェスチャーセンサー120を備える。少なくとも1つのジェスチャーセンサー120は、アクティブ化されたとき、本体110の外の、および本体110からの少なくとも1つの方向における、ユーザ機器100と対話するユーザ(図1に図示せず)の動きを検出するように設定される。ジェスチャーセンサー120の非限定的な例は、近接度センサー、画像センサー、レーダーセンサー、赤外線センサーなどである。1つのジェスチャーセンサー120のみが図1に示されているが、ユーザ機器は、2つまたはそれ以上のジェスチャーセンサー120とともに提供され得る。これらの2つまたはそれ以上のジェスチャーセンサー120は、同じタイプのものであり得るか、または少なくとも2つの異なるタイプのものであり得る。
ユーザ機器100は、視覚ユーザインターフェース130a1、130a2、130bを備える。視覚ユーザインターフェース130a1、130a2、130bは、ジェスチャーセンサー120のアクティブ化の視覚フィードバックを提供するように設定される。視覚フィードバックは、本体110からの少なくとも1つのどの方向において、ジェスチャーセンサー120を使用した動きの検出がアクティブ化されたかを指示する。視覚ユーザインターフェース130a1、130a2、130bの例が、以下で提供される。
ジェスチャーセンサー120がアクティブ化されたか否かは、ユーザ機器100の技術的条件である。視覚フィードバックは、視覚インジケータの一例である。したがって、この実施形態は、ユーザ機器100の技術的条件の視覚指示を提供する。
次に、ユーザ機器100のさらなる詳細に関係する実施形態が開示される。
次に、ジェスチャーセンサー120のアクティブ化の視覚フィードバックを提供するための第1の実施形態が、図2のユーザ機器100に関して開示される。図2は、視覚ユーザインターフェースが、少なくとも1つのジェスチャーセンサー120がユーザの動きを検出するように設定された方向においてフレーム160に沿って配置された光源130a1、130a2からなる、図1のユーザ機器100の上面図を概略的に示す。図2の実施形態では、ユーザ機器100が4つのそのような光源を有することが示されているが、当業者が理解するように、ユーザ機器100は、少なくとも1つのジェスチャーセンサー120がユーザの動きを検出するように設定された方向においてフレーム160に沿って配置された任意の数のそのような光源130a1、130a2を有し得る。
いくつかの態様では、ジェスチャーセンサー120のアクティブ化のフィードバックは、光200が、フレーム160に沿って放出されることによって提供される。次いで、光200は、ジェスチャーセンサー120による動き検出がアクティブ化された、この方向またはそれらの方向においてのみ、光源130a1、130a2によって放出され得る。特に、いくつかの実施形態では、視覚フィードバックは、光200が、ジェスチャーセンサー120を使用した動きの検出がアクティブ化された方向に位置する光源130a1、130a2からのみ放出されることによって指示される。これは、動き検出が、すべての方向において一度にアクティブ化されないことがあるので有利である。
いくつかの態様では、動き検出が上面140の上でおよび/または底面150の下でアクティブ化された場合、光200はすべての光源130a1、130a2から放出され得る。すなわち、いくつかの実施形態では、視覚フィードバックは、ジェスチャーセンサー120を使用した動きの検出が、上面140および底面150に対して直角に延びる方向においてアクティブ化されたとき、光200が、すべての光源130a1、130a2から放出されることによって指示される。これは、1つまたは複数のどの方向において、動き検出がアクティブ化されたかに依存する、異なるタイプの指示が、ユーザ機器100に対する1つまたは複数のどの方向において、ユーザ機器100との対話についてのジェスチャーが実施されるべきであるかに関するフィードバックをユーザに与えるので、有利である。
次に、ジェスチャーセンサー120のアクティブ化の視覚フィードバックを提供するための第2の実施形態が、図3のユーザ機器100に関して開示される。図3は、視覚ユーザインターフェースがタッチスクリーンディスプレイ130bである、図1のユーザ機器100の上面図を概略的に示す。この実施形態では、視覚フィードバックは、光210が、ジェスチャーセンサー120を使用した動きの検出がアクティブ化された、この方向またはそれらの方向においてのみ、タッチスクリーンディスプレイ130bのリム170に沿って放出されることによって指示される。これは、動き検出が、すべての方向において一度にアクティブ化されないことがあるので有利である。
いくつかの態様では、動き検出が上面140の上でおよび/または底面150の下でアクティブ化された場合、光210はリム170全体に沿っていることがある。
いくつかの態様では、ジェスチャーセンサー130によって検出されるようなユーザの動きの、視覚フィードバックも提供される。すなわち、いくつかの実施形態では、視覚ユーザインターフェース130a1、130a2、130bは、ジェスチャーセンサー120によって検出されるようなユーザ300の動きのさらなる視覚フィードバックを提供するように設定される。さらなる視覚フィードバックは、本体110からの少なくとも1つのどの方向において、動きが検出されたかを指示する。
ジェスチャーセンサー120によって動きが検出されたか否かは、ユーザ機器100の技術的条件である。さらなる視覚フィードバックは、視覚インジケータの一例である。したがって、この実施形態は、ユーザ機器100の技術的条件の視覚指示を提供する。
次にさらに開示されるように、視覚フィードバックは、ユーザの検出された動き、ジェスチャー、位置などに依存して変化し得る。
詳細には、いくつかの態様では、視覚フィードバックのタイプは、どの方向において動きが検出されたかに依存する。すなわち、いくつかの実施形態では、どのタイプのさらなる視覚フィードバックが提供されるべきかは、本体110からの少なくとも1つのどの方向において、動きが検出されたかに依存する。
いくつかの態様では、ユーザの動きが上面140の上でおよび/または底面150の下で検出された場合、光200はすべての光源130a1、130a2から放出され得、および/または光210は、タッチスクリーンディスプレイ130bのリム170全体に沿って放出され得る。いくつかの態様では、上面140および底面150に対して直角に延びる方向に沿って検出されたユーザの動きについて、視覚フィードバックは、ユーザが、ユーザ機器100のより近くに、またはユーザ機器100からより遠く離れて動かされたとき、(たとえば色および/または光強度に関して)変化し得る。ユーザが、ユーザ機器100のより近くに、またはユーザ機器100からより遠く離れて動くときのユーザの動き検出の視覚フィードバックのさらなる態様が、以下で開示される。色は、ユーザによってセットされ得るスケールに従ってシフトされるか、またはユーザ機器100においてハードコーディングされ得る。
いくつかの態様では、放出される光200、210の強度は、ユーザ機器100と検出された物体(たとえば、ユーザの指)との間の距離に比例する。すなわち、いくつかの実施形態では、ジェスチャーセンサー120は、ユーザ300の動きが検出されることを引き起こす、ジェスチャーセンサー120とユーザ300の(指などの)一部310(またはユーザ300によって保持されたスタイラスなどの物体)との間の距離D(図6参照)を検出するように設定される。次いで、さらなる視覚フィードバックを提供することは、視覚ユーザインターフェース130a1、130a2、130bから光200、210を放出することを伴い、ここで、光200、210の強度は、ジェスチャーセンサー120とユーザ300の一部310との間の検出された距離Dに比例する。
次に、ジェスチャーセンサー130によって検出されるようなユーザの動きの視覚フィードバックを提供するための第1の実施形態が、図4のユーザ機器100に関して開示される。図4は、視覚ユーザインターフェースが、少なくとも1つのジェスチャーセンサー120がユーザの動きを検出するように設定された方向においてフレーム160に沿って配置された光源130a1、130a2からなる、図1のユーザ機器100の上面図を概略的に示す。この実施形態では、ユーザ300の指310の動きは、光源130a1が位置する本体110からの方向において、ジェスチャーセンサー120によって検出されたと仮定される。したがって、光200は、光センサー130a2ではなく光源130a1によって放出される。この点において、図4のユーザ機器100は、合計8つの光源を有し、光200は、指310の動きが検出された方向に位置する、光源のうちの2つのみから放出される。当業者が理解するように、光源130a1、130a2の総数を増加させることは、ユーザ300の検出された動きの視覚フィードバックが提供され得るグラニュラリティのレベルを増加させる。
さらに、指310がユーザ機器100のより近くに動かされたとき、放出される光200の強度は増加し得るが、指310がユーザ機器100からより遠く離れて動かされたとき、放出される光200の強度は、ジェスチャーセンサー120がユーザ300の動きまたは位置を検出することがもはや可能でなくなるまで、減少し得る。ユーザ機器100は、それにより、ユーザ機器100が指310の動きを検出したことをユーザ300に視覚的に指示するように設定され得る。
次に、ジェスチャーセンサー120によって検出されるようなユーザの動きの視覚フィードバックを提供するための第2の実施形態が、図5のユーザ機器100に関して開示される。図5は、視覚ユーザインターフェースがタッチスクリーンディスプレイ130bである、図1のユーザ機器100の上面図を概略的に示す。この実施形態では、さらなる視覚フィードバックは、ユーザ機器100のタッチスクリーンディスプレイ130b上に配置された少なくとも1つのアイコン180として提供される。
1つまたは複数のアイコン180は、動き検出がアクティブ化された、および/またはユーザの動きが検出された、この方向またはそれらの方向において、タッチスクリーンディスプレイ130b上に表示され得る。すなわち、いくつかの実施形態では、少なくとも1つのアイコン180は、本体110からの少なくとも1つのどの方向において、動きが検出されたかを指示するように、タッチスクリーンディスプレイ130bに配向される。したがって、動き検出が本体110からの2つまたはそれ以上の方向においてアクティブ化された場合、それらの方向の各々において、1つのアイコン180が表示され得る。代替的に、以下で開示されるように、動き検出が本体110からの2つまたはそれ以上の方向においてアクティブ化されるが、ただ単一のアイコン180が表示され得る。
次に、ジェスチャーセンサー130によって検出されるようなユーザの動きの視覚フィードバックを提供するための第3の実施形態が、図6のユーザ機器100に関して開示される。図6は、視覚ユーザインターフェースがタッチスクリーンディスプレイ130bである、図1のユーザ機器100の上面図を概略的に示す。この実施形態では、さらなる視覚フィードバックは、ユーザ機器100のタッチスクリーンディスプレイ130b上に配置された少なくとも1つのアイコン180として提供される。この実施形態は、1つまたは複数のアイコン180のサイズが、ユーザ機器100と検出された物体(たとえば、ユーザ300の指310)との間の距離Dに比例する、一例を示す。すなわち、いくつかの実施形態では、ジェスチャーセンサー120は、ユーザ300の動きが検出されることを引き起こす、ジェスチャーセンサー120とユーザ300の一部310との間の距離Dを検出するように設定され、少なくとも1つのアイコン180のサイズは、ジェスチャーセンサー120とユーザ300の一部310との間の検出された距離Dに比例する。したがって、ユーザ300がユーザ機器100のより近くに動く(およびユーザ300の動きがジェスチャーセンサー120によって検出された)とき、アイコン180はサイズが大きくなり得、ユーザ300の動きがジェスチャーセンサー120によってもはや検出され得なくなるまでユーザ300がユーザ機器100から離れて動く(およびユーザ300の動きがジェスチャーセンサー120によって検出された)とき、その逆のことが起こる。距離Dは、ユーザ機器100に対する垂直距離および/または水平距離であり得る。
いくつかの例では、タッチスクリーンディスプレイ130b上に配置された1つの単一のアイコン180のみがあり、アイコン180は、本体110からの少なくとも1つのどの方向において、動き検出がアクティブ化されたか、および/または本体110からの少なくとも1つのどの方向において、動きが検出されたかの視覚インジケータ190を備える。この点において、図6の実施形態において示されているように、単一のアイコン180のみが表示され、この単一のアイコン180は、ユーザ300の動きが検出された方向を向く矢印の形態の視覚インジケータ190を有する。
上述のように、ジェスチャーセンサー120は、ユーザ300のジェスチャーを認識し得る。すなわち、いくつかの実施形態では、ジェスチャーセンサー120は、検出された動きを、ユーザ機器100とのユーザ300の対話についてのジェスチャーとして認識するように設定される。たとえば、認識されたジェスチャーの視覚フィードバックは、光200、210の明滅として提供され得る。
いくつかの非限定的な例では、ジェスチャーは、仮想タッチ動作、仮想スクロール動作、仮想ズーム動作のうちのいずれかを規定する。ジェスチャーは、機能をアクティブ化するためにユーザ300によって使用され得(たとえば、空中での仮想ダブルタップ)、またはメニューに戻るためのジェスチャー、またはアプリケーションに依存する他のものであり得る。したがって、視覚フィードバックのタイプは、認識されたジェスチャーのタイプに依存し得る。すなわち、いくつかの実施形態では、どのタイプの視覚フィードバックが視覚ユーザインターフェース130a1、130a2、130bによって提供されるべきかは、どのタイプのジェスチャーが検出されたかに依存する。たとえば、各ジェスチャーは、それ自体の色、光明滅パターンなどに関連し得、特定のタイプの認識されたジェスチャーの視覚フィードバックは、その特定のタイプのジェスチャーに関連する色、光明滅パターンなどに従って提供され得る。色、光明滅パターンなどは、ユーザによってセットされ得るスケールに従ってシフトされるか、またはユーザ機器100においてハードコーディングされ得る。
図7は、ユーザ機器100から視覚フィードバックを提供するための方法の実施形態を示すフローチャートである。方法は、上記で開示されたようにユーザ機器100によって実施される。方法は、有利には、コンピュータプログラム1020として提供される。
S102:ユーザ機器100は、本体110の外の、および本体110からの少なくとも1つの方向における、ユーザ機器100と対話するユーザ300の動きを検出するために、少なくとも1つのジェスチャーセンサー120をアクティブ化する。
S104:ユーザ機器100は、ジェスチャーセンサー120がアクティブ化されたことの視覚フィードバックを提供する。視覚フィードバックは、本体110からの少なくとも1つのどの方向において、ジェスチャーセンサー120を使用した動きの検出がアクティブ化されたかを指示する。
この点において、視覚フィードバックは、ユーザ機器100自体が電源投入されたときに提供され得る。別の例では、視覚フィードバックは、ユーザの動き検出を利用するアプリケーション(たとえば、ユーザの検出されたジェスチャーを入力として使用するアプリケーション)がアクティブ化されたときに提供される。
ジェスチャーセンサー120がアクティブ化されたか否かは、ユーザ機器100の技術的条件である。視覚フィードバックは、視覚インジケータの一例である。したがって、この実施形態は、ユーザ機器100の技術的条件の視覚指示を提供する。
視覚フィードバックは、上記で開示された実施形態、態様、および例のうちのいずれかに従って提供され得、したがって、それらの繰り返される説明は省略される。
次に、ユーザ機器100によって実施される、ユーザ機器100から視覚フィードバックを提供することのさらなる詳細に関係する実施形態が開示される。
S106:ユーザ機器100は、ユーザ300の動きを検出する。
S108:ユーザ機器100は、本体110からの少なくとも1つのどの方向において、動きが検出されたかを指示する、さらなる視覚フィードバックを提供する。
ジェスチャーセンサー120によって動きが検出されたか否かは、ユーザ機器100の技術的条件である。さらなる視覚フィードバックは、視覚インジケータの一例である。したがって、この実施形態は、ユーザ機器100の技術的条件の視覚指示を提供する。
さらなる視覚フィードバックは、上記で開示された実施形態、態様、および例のうちのいずれかに従って提供され得、したがって、それらの繰り返される説明は省略される。
図8は、いくつかの機能ユニットに関して、一実施形態によるユーザ機器100の構成要素を概略的に示す。処理回路810は、たとえば、記憶媒体830の形態で(図10の場合のように)コンピュータプログラム製品1010に記憶されたソフトウェア命令を実行することが可能な、好適な中央処理ユニット(CPU)、マルチプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)などのうちの1つまたは複数の任意の組合せを使用して提供される。処理回路810はさらに、少なくとも1つの特定用途向け集積回路(ASIC)、またはフィールドプログラマブルゲートアレイ(FPGA)として提供され得る。
詳細には、処理回路810は、上記で開示されたように、ユーザ機器100に、動作またはステップのセットを実施させるように設定される。たとえば、記憶媒体830は動作のセットを記憶し得、処理回路810は、ユーザ機器100に動作のセットを実施させるために、記憶媒体830から動作のセットを取り出すように設定され得る。動作のセットは、実行可能な命令のセットとして提供され得る。したがって、それにより、処理回路810は、本明細書で開示される方法を実行するように構成される。記憶媒体830はまた、たとえば、磁気メモリ、光メモリ、固体メモリ、さらにはリモートに搭載されるメモリのうちのいずれか単独の1つまたは組合せであり得る、永続記憶装置を備え得る。
ユーザ機器100は、少なくとも、他の通信エンティティ、機能、ノード、およびデバイスとの通信のために設定された、無線インターフェース820をさらに備え得る。したがって、通信インターフェース820は、アナログおよびデジタル構成要素を備える1つまたは複数の送信機および受信機を備え得る。ユーザ機器100は、ジェスチャーセンサー120などのジェスチャーセンサー840をさらに備える。ユーザ機器100は、光源130a1、130a2および/またはタッチスクリーンディスプレイ130bなど、視覚ユーザインターフェース850をさらに備える。
処理回路810は、たとえば、データおよび制御信号を通信インターフェース820および記憶媒体830に送ることによって、データおよび報告を無線インターフェース820、ジェスチャーセンサー840、および視覚ユーザインターフェース850から受信することによって、ならびにデータおよび命令を記憶媒体830から取り出すことによって、ユーザ機器100の全般の動作を制御する。ユーザ機器100の他の構成要素、ならびに関係する機能は、本明細書で提示される概念を不明瞭にしないために省略される。
図9は、いくつかの機能モジュールに関して、一実施形態によるユーザ機器100の構成要素を概略的に示す。図9のユーザ機器100は、いくつかの機能モジュール、すなわち、ステップS102を実施するように設定されたアクティブ化モジュール910と、ステップS104を実施するように設定された提供モジュール920とを備える。図9のユーザ機器100は、ステップS106を実施するように設定された検出モジュール930、ステップS108を実施するように設定された提供モジュール940のうちのいずれかなど、いくつかの随意の機能モジュールをさらに備え得る。大まかに言えば、各機能モジュール910~940は、一実施形態では、ハードウェアのみで実装され、別の実施形態では、ソフトウェアの助けをかりて実装され得、すなわち、後者の実施形態は、処理回路上で起動するとき、ユーザ機器100に、図9に関連して上述の対応するステップを実施させる、記憶媒体830に記憶されたコンピュータプログラム命令を有する。モジュールは、コンピュータプログラムの一部に対応するが、それらのモジュールは、その中で別個のモジュールである必要がなく、それらのモジュールがソフトウェアで実装されるやり方は、使用されるプログラミング言語に依存することも言及されるべきである。好ましくは、1つまたは複数のまたはすべての機能モジュール910~940が、処理回路810によって、場合によっては通信インターフェース820および/または記憶媒体830と協働して実装され得る。処理回路810は、したがって、機能モジュール910~940によって提供される命令を記憶媒体830からフェッチし、これらの命令を実行するように設定され、それにより、本明細書で開示される任意のステップを実施し得る。
図10は、コンピュータ可読記憶媒体1030を備えるコンピュータプログラム製品1010の一例を示す。このコンピュータ可読記憶媒体1030上に、コンピュータプログラム1020が記憶され得、そのコンピュータプログラム1020は、処理回路810に、ならびに通信インターフェース820および記憶媒体830など、処理回路810に動作可能に結合されたエンティティおよびデバイスに、本明細書で説明される実施形態による方法を実行させることができる。したがって、コンピュータプログラム1020および/またはコンピュータプログラム製品1010は、本明細書で開示される任意のステップを実施するための手段を提供し得る。
図10の例では、コンピュータプログラム製品1010は、CD(コンパクトディスク)またはDVD(デジタル多用途ディスク)、またはBlu-Rayディスクなどの光ディスクとして示されている。コンピュータプログラム製品1010はまた、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROM)または電気的消去可能プログラマブル読取り専用メモリ(EEPROM)など、メモリとして、より詳細には、USB(ユニバーサルシリアルバス)メモリ、またはコンパクトフラッシュメモリなどのフラッシュメモリなど、外部メモリにおけるデバイスの不揮発性記憶媒体として具現化され得る。したがって、コンピュータプログラム1020は、ここでは、示された光ディスク上のトラックとして概略的に示されているが、コンピュータプログラム1020は、コンピュータプログラム製品1010に好適な任意のやり方で記憶され得る。
本発明の概念が、主に数個の実施形態を参照しながら上記で説明された。しかしながら、当業者によって直ちに諒解されるように、上記で開示された実施形態以外の他の実施形態が、添付の特許請求の範囲によって規定される本発明の概念の範囲内で等しく可能である。

Claims (22)

  1. ユーザ機器(100)であって、前記ユーザ機器(100)は、本体(110)を有し、
    アクティブ化されたとき、前記本体(110)の外の、および前記本体(110)からの少なくとも1つの方向における、前記ユーザ機器(100)と対話するユーザ(300)の動きを検出するように設定された、少なくとも1つのジェスチャーセンサー(120)と、
    前記ジェスチャーセンサー(120)のアクティブ化の視覚フィードバックを提供するように設定された視覚ユーザインターフェース(130a1、130a2、130b)であって、前記視覚フィードバックは、前記本体(110)からの少なくとも1つのどの方向において、前記ジェスチャーセンサー(120)を使用した動きの前記検出がアクティブ化されたかを示す、視覚ユーザインターフェース(130a1、130a2、130b)と
    を備える、ユーザ機器(100)。
  2. 前記本体(110)が、上面(140)と、底面(150)と、前記上面(140)と前記底面(150)との間に延びるフレーム(160)とによって画定され、前記視覚ユーザインターフェース(130a1、130a2、130b)は、前記少なくとも1つのジェスチャーセンサー(120)が、前記ユーザ(300)の動きを検出するように設定された方向において前記フレーム(160)に沿って配置された光源(130a1、130a2)からなる、請求項1に記載のユーザ機器(100)。
  3. 前記視覚フィードバックは、前記ジェスチャーセンサー(120)を使用した動きの前記検出がアクティブ化された方向に位置する前記光源(130a1、130a2)からのみ放出されている光(200)によって示される、請求項2に記載のユーザ機器(100)。
  4. 前記視覚フィードバックは、前記ジェスチャーセンサー(120)を使用した動きの検出が、前記上面(140)および前記底面(150)に対して直角に延びる方向においてアクティブ化されたとき、すべての前記光源(130a1、130a2)から放出されている光(200)よって示される、請求項3に記載のユーザ機器(100)。
  5. 前記視覚ユーザインターフェース(130a1、130a2、130b)が、タッチスクリーンディスプレイ(130b)である、請求項1に記載のユーザ機器(100)。
  6. 前記視覚フィードバックは、前記ジェスチャーセンサー(120)を使用した動きの前記検出がアクティブ化された方向において前記タッチスクリーンディスプレイ(130b)のリム(170)に沿って放出されている光(210)によって示される、請求項5に記載のユーザ機器(100)。
  7. 前記視覚ユーザインターフェース(130a1、130a2、130b)は、前記ジェスチャーセンサー(120)によって検出されるような前記ユーザ(300)の動きのさらなる視覚フィードバックを提供するように設定され、前記さらなる視覚フィードバックは、前記本体(110)からの少なくとも1つのどの方向において、前記動きが検出されたかを示す、請求項1に記載のユーザ機器(100)。
  8. どのタイプのさらなる視覚フィードバックが提供されるべきかは、前記本体(110)からの少なくとも1つのどの方向において、前記動きが検出されたかに依存する、請求項7に記載のユーザ機器(100)。
  9. 前記ジェスチャーセンサー(120)は、前記ユーザ(300)の前記動きが検出されることを引き起こす、前記ジェスチャーセンサー(120)と前記ユーザ(300)の一部(310)との間の距離(D)を検出するように設定され、前記さらなる視覚フィードバックを提供することが、前記視覚ユーザインターフェース(130a1、130a2、130b)から光(200、210)を放出することを伴い、前記光(200、210)の強度が、前記ジェスチャーセンサー(120)と前記ユーザ(300)の前記一部(310)との間の前記検出された距離(D)に比例する、請求項7または8に記載のユーザ機器(100)。
  10. 前記さらなる視覚フィードバックが、前記ユーザ機器(100)のタッチスクリーンディスプレイ(130b)上に配置された少なくとも1つのアイコン(180)として提供される、請求項7に記載のユーザ機器(100)。
  11. 前記少なくとも1つのアイコン(180)は、前記本体(110)からの少なくとも1つのどの方向において、前記動きが検出されたかを示すように、前記タッチスクリーンディスプレイ(130b)に配向された、請求項10に記載のユーザ機器(100)。
  12. 前記ジェスチャーセンサー(120)は、前記ユーザ(300)の前記動きが検出されることを引き起こす、前記ジェスチャーセンサー(120)と前記ユーザ(300)の一部(310)との間の距離(D)を検出するように設定され、前記少なくとも1つのアイコン(180)のサイズが、前記ジェスチャーセンサー(120)と前記ユーザ(300)の前記一部(310)との間の前記検出された距離(D)に比例する、請求項10または11に記載のユーザ機器(100)。
  13. 前記タッチスクリーンディスプレイ(130b)上に配置された1つの単一のアイコン(180)のみがあり、前記アイコン(180)は、前記本体(110)からの少なくとも1つのどの方向において、前記動きが検出されたかの視覚インジケータ(190)を備える、請求項10から12のいずれか一項に記載のユーザ機器(100)。
  14. 前記ジェスチャーセンサー(120)が、前記検出された動きを、前記ユーザ機器(100)との前記ユーザ(300)の対話についてのジェスチャーとして認識するように設定された、請求項7に記載のユーザ機器(100)。
  15. 前記ジェスチャーが、仮想タッチ動作、仮想スクロール動作、仮想ズーム動作のうちのいずれかを規定する、請求項14に記載のユーザ機器(100)。
  16. どのタイプの前記視覚フィードバックが前記視覚ユーザインターフェース(130a1、130a2、130b)によって提供されるべきかは、どのタイプのジェスチャーが検出されたかに依存する、請求項14または15に記載のユーザ機器(100)。
  17. 前記ユーザ機器(100)が、モバイルフォン、タブレットコンピュータ、スマートウォッチのうちのいずれかである、請求項1から16のいずれか一項に記載のユーザ機器(100)。
  18. 各少なくとも1つのジェスチャーセンサー(120)が近接度センサーである、請求項1から17のいずれか一項に記載のユーザ機器(100)。
  19. ユーザ機器(100)から視覚フィードバックを提供するための方法であって、前記方法が、請求項1から18のいずれか一項に記載のユーザ機器(100)によって実施され、前記方法は、
    前記本体(110)の外の、および前記本体(110)からの少なくとも1つの方向における、前記ユーザ機器(100)と対話するユーザ(300)の動きを検出するために、前記少なくとも1つのジェスチャーセンサー(120)をアクティブ化すること(S102)と、
    前記ジェスチャーセンサー(120)がアクティブ化されたことの視覚フィードバックを提供すること(S104)であって、前記視覚フィードバックは、前記本体(110)からの少なくとも1つのどの方向において、前記ジェスチャーセンサー(120)を使用した動きの前記検出がアクティブ化されたかを示す、視覚フィードバックを提供すること(S104)と
    を含む、方法。
  20. 前記ユーザ(300)の動きを検出すること(S106)と、
    前記本体(110)からの少なくとも1つのどの方向において、前記動きが検出されたかを示す、さらなる視覚フィードバックを提供すること(S108)と
    をさらに含む、請求項19に記載の方法。
  21. ユーザ機器(100)から視覚フィードバックを提供するためのコンピュータプログラム(1020)であって、前記コンピュータプログラムは、コンピュータコードを備え、前記コンピュータコードが、請求項1から18のいずれか一項に記載のユーザ機器(100)の処理回路(810)上で起動するとき、前記ユーザ機器(100)に、
    前記本体(110)の外の、および前記本体(110)からの少なくとも1つの方向における、前記ユーザ機器(100)と対話するユーザ(300)の動きを検出するために、前記少なくとも1つのジェスチャーセンサー(120)をアクティブ化すること(S102)と、
    前記ジェスチャーセンサー(120)がアクティブ化されたことの視覚フィードバックを提供すること(S104)であって、前記視覚フィードバックは、前記本体(110)からの少なくとも1つのどの方向において、前記ジェスチャーセンサー(120)を使用した動きの前記検出がアクティブ化されたかを示す、視覚フィードバックを提供すること(S104)と
    を行わせる、コンピュータプログラム(1020)。
  22. 請求項21に記載のコンピュータプログラム(1020)と、前記コンピュータプログラムが記憶されるコンピュータ可読記憶媒体(1030)とを備えるコンピュータプログラム製品(1010)。
JP2023501204A 2020-07-10 2020-07-10 ユーザ機器からの視覚フィードバック Pending JP2023532794A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2020/069514 WO2022008067A1 (en) 2020-07-10 2020-07-10 Visual feedback from a user equipment

Publications (1)

Publication Number Publication Date
JP2023532794A true JP2023532794A (ja) 2023-07-31

Family

ID=71607980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023501204A Pending JP2023532794A (ja) 2020-07-10 2020-07-10 ユーザ機器からの視覚フィードバック

Country Status (5)

Country Link
US (1) US20230266828A1 (ja)
EP (1) EP4179411A1 (ja)
JP (1) JP2023532794A (ja)
CO (1) CO2023000513A2 (ja)
WO (1) WO2022008067A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8432372B2 (en) * 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
KR101938648B1 (ko) * 2012-10-23 2019-01-15 삼성전자주식회사 이미지 센서를 포함하는 모바일 기기, 이미지 센서의 구동 방법 및 모바일 기기의 구동 방법
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
KR102251541B1 (ko) * 2014-06-23 2021-05-14 엘지전자 주식회사 이동단말기 및 그것의 제어방법
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface

Also Published As

Publication number Publication date
WO2022008067A1 (en) 2022-01-13
EP4179411A1 (en) 2023-05-17
CO2023000513A2 (es) 2023-01-26
US20230266828A1 (en) 2023-08-24

Similar Documents

Publication Publication Date Title
EP2724215B1 (en) Touch sensor system
US9652070B2 (en) Integrating multiple different touch based inputs
US8495522B2 (en) Navigation in a display
US20150268789A1 (en) Method for preventing accidentally triggering edge swipe gesture and gesture triggering
US20130215018A1 (en) Touch position locating method, text selecting method, device, and electronic equipment
EP4080346A1 (en) Method and apparatus for displaying application
EP3000016B1 (en) User input using hovering input
KR20140031254A (ko) 사용자 인터페이스의 요소를 선택하기 위한 방법 및 이러한 방법을 구현하는 장치
CN108874284B (zh) 手势触发方法
US20120249487A1 (en) Method of identifying a multi-touch shifting gesture and device using the same
US9817572B2 (en) Overlapped transparent display and control method thereof
JP2014153986A (ja) 表示装置、および、表示方法
CN103207757A (zh) 可携式装置与其操作方法
US9367228B2 (en) Fine object positioning
KR102559030B1 (ko) 터치 패널을 포함하는 전자 장치 및 그 제어 방법
US20150277649A1 (en) Method, circuit, and system for hover and gesture detection with a touch screen
JPWO2012111227A1 (ja) タッチ式入力装置、電子機器および入力方法
EP2977862B1 (en) Information processing device and information processing method
EP2751657B1 (en) An apparatus, method and computer pprogram using a proximity detector
US20170220173A1 (en) Press and move gesture
JP2014149589A (ja) 入力操作装置、表示装置、および、コマンド選択方法
US20120062477A1 (en) Virtual touch control apparatus and method thereof
JP2023532794A (ja) ユーザ機器からの視覚フィードバック
CN103069364B (zh) 用于辨别输入物体的系统和方法
US20120182231A1 (en) Virtual Multi-Touch Control Apparatus and Method Thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402