JP2021509988A - モバイル機器を用いたジェスチャー認識 - Google Patents

モバイル機器を用いたジェスチャー認識 Download PDF

Info

Publication number
JP2021509988A
JP2021509988A JP2020536953A JP2020536953A JP2021509988A JP 2021509988 A JP2021509988 A JP 2021509988A JP 2020536953 A JP2020536953 A JP 2020536953A JP 2020536953 A JP2020536953 A JP 2020536953A JP 2021509988 A JP2021509988 A JP 2021509988A
Authority
JP
Japan
Prior art keywords
mobile device
posture
processor
sensor
depth camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020536953A
Other languages
English (en)
Other versions
JP7027552B2 (ja
Inventor
バルン アローラ
バルン アローラ
アバサレ プラブハット
アバサレ プラブハット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JP2021509988A publication Critical patent/JP2021509988A/ja
Application granted granted Critical
Publication of JP7027552B2 publication Critical patent/JP7027552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

本発明はモバイル機器を用いたジェスチャー認識に関する。車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うように構成されたモバイル機器は、深度カメラと、姿勢センサと、ジェスチャー検出アルゴリズムに従って上記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサとを具備する。上記プロセッサは、上記姿勢センサによって検出された上記モバイル機器の姿勢に応じて上記ジェスチャー検出アルゴリズムを変更するように構成されている。【選択図】図7

Description

本開示は、モバイル機器を用いたジェスチャー認識に関する。
ここで提供される"背景"の記載は、本開示における背景を大まかに公開するためのものである。ここで指名されている発明者の研究開発は、出願時に従来技術とみなされない本開示における態様の説明と同様に、この背景セクションで説明される範囲で、本開示に対する従来技術として明示的にも黙示的にも認められない。
車両情報および/またはエンターテインメントシステムの1つ以上の操作機能を制御するための、ジェスチャー認識を使用することが提案される。
また、深度カメラを搭載した携帯電話端末などのモバイル機器を使用して、ユーザのジェスチャーを検出することも提案される。
前段落は、一般的な導入によって提供され、以下の請求の範囲を制限するものではない。本開示において記載された実施形態は、さらなる利益と共に、添付図面と併用された以下の詳細な説明を参照することによって、最もよく理解される。
本発明の例示的な一実施形態は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うように構成されたモバイル機器を提供する。このモバイル機器は、
深度カメラと、
姿勢センサと、
ジェスチャー検出アルゴリズムに従って上記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
を具備する。
上記プロセッサは、上記姿勢センサによって検出された上記モバイル機器の姿勢に応じて上記ジェスチャー検出アルゴリズムを変更するように構成されている。
本発明の例示的な他実施形態は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識システムを提供する。このシステムは、
深度カメラおよび姿勢センサを有するモバイル機器と、
ジェスチャー検出アルゴリズムに従って上記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
を具備する。
上記プロセッサは、上記姿勢センサによって検出された上記モバイル機器の姿勢に応じて、上記ジェスチャー検出アルゴリズムを変更するように構成される。
本発明の例示的な他実施形態は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うためのモバイル機器の作動方法を提供する。この方法は、
上記モバイル機器の深度カメラを用いて画像を検出するステップと、
上記モバイル機器の姿勢を検出するステップと、
ジェスチャー検出アルゴリズムに従って、上記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するステップと
を含む。
上記1つ以上のジェスチャーを検出するステップは、上記姿勢センサによって検出された上記モバイル機器の姿勢に応じて、上記ジェスチャー検出アルゴリズムを変更することを含む。
本開示は、深度カメラを有するモバイル機器のプロセッサによって実行されると、上記モバイル機器に上記で定義した方法を実行させるコンピュータソフトウェアをさらに提供する。
本発明の例示的な実施形態は、このようなコンピュータソフトウェアを保存する非一時的な機械可読記憶媒体を提供する。
本開示における様々な他の態様および特徴が、添付の請求の範囲および添付の詳細な説明の文章内で定義され、そして、ディスプレイ、ならびに、頭部に取り付け可能な機器を操作する方法、および、コンピュータプログラムなどの、頭部に取り付け可能な機器を少なくとも含む。
本開示が、以下の添付図面に関連して考慮される際に、以下の詳細な説明を参照することによってよりよく理解されるように、本開示のより完全な理解とそれに付随する多くの利点とが、容易に得られる。
モバイル機器の模式図である。 車両情報および/またはエンターテインメントシステムの模式図である。 図3aおよび3bは、ジェスチャーの例を模式的に表した図である。 図4aおよび4bは、ジェスチャー認識アルゴリズムを表す概略フローチャートを提供する。 手のジェスチャーの異なるビュー(表示)を模式的に表した図である。 手のジェスチャーの異なるビューを模式的に表した図である。 モバイル機器の位置および姿勢に応じた、手のジェスチャーの複数の実行可能なビューを模式的に表した図である。 ジェスチャー認識アルゴリズムの変更を表す概略フローチャートである。 姿勢センサの使用を模式的に表した図である。 姿勢センサの使用を模式的に表した図である。 モバイル機器の深度カメラで見た車両内部を模式的に表した図である。 姿勢検出の方法を示す概略フローチャートである。 モバイル機器、車両情報および/またはエンターテイメントシステムを概略的に示した図である。 本発明における方法を示す概略フローチャートである。
図1は、例えば携帯電話端末のようなモバイル機器の模式図であるが、本開示における考察を明確にするために、一部の通話機能が図1から省略されている。
モバイル機器100は、深度カメラ110を含む。この深度カメラは、いわゆる視野における奥行き画像をキャプチャすることができる。それ故に、深度カメラ110によって見られる視野の状況を示すキャプチャ画像データと、各画像特徴の奥行き、つまりカメラ110からの距離を示す情報とが、キャプチャされる。
これに関連して、図1は、深度カメラ110に適用可能な座標系の表示112を含み、この座標系112において、図示されるように、x軸およびy軸がモバイル機器100の一面に存在し、z軸がこの一面に対して垂直であり、深度カメラ110の視野方向に延びる。この深度カメラ110によってキャプチャされる奥行き情報は、キャプチャ画像における特定の位置(x、y)におけるピクセルに対する奥行き値すなわちz値を含むことができる。
深度カメラ110は例えば、いわゆる飛行時間型(ToF)画像センサ、ステレオカメラ、またはストラクチャードライトカメラである。ストラクチャードライトカメラ方式においては、エミッタが既知のパターンの光照射、例えば格子状の赤外線の光照射を提供するので、ストラクチャードライト方式におけるキャプチャ画像のゆがみは、画像特徴の奥行きを示すことができる。当業者は、他の方式の深度カメラが代わりに使用されてもよいことを理解するであろう。
図1に戻ると、深度カメラ110によってキャプチャされた画像は、記憶装置130に保存されたコンピュータソフトウェアであるプログラム命令の制御の下で動作するプロセッサ120に提供される。記憶装置130は、不揮発性メモリのような非一時的な機械可読記憶媒体である。例えば、フラッシュメモリ、固定記憶装置(ROM)、若しくは、磁気または光ディスクメモリが含まれる。
例えばディスプレイ要素(図示せず)やタッチパネル(図示せず)の形式でユーザーインターフェース140が提供される。インターフェース150が、車両情報および/またはエンターテインメントシステムに無線または有線通信を提供する。このようなインターフェースの例は、いわゆるBluetooth(登録商標)インターフェースである。
最後に図1に関して、1つ以上のセンサ160が提供される。センサ160は例えば1つ以上の三次元位置・姿勢センサを含み、モバイル機器の現在の姿勢を検出することができる。センサ160は例えば、ジャイロセンサ、加速度計、重力センサ、および磁気センサで構成されるリストから選択される1つ以上のセンサを含むことができる。
上記のように、図1のモバイル機器100は、有線または無線通信によって車両情報および/またはエンターテインメントシステムに接続可能である。以下で説明されるように、モバイル機器100は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うように構成されたモバイル機器の一例を提供する。モバイル機器100は、深度カメラ110、姿勢センサ160、およびプロセッサ120を含み、ジェスチャー検出アルゴリズムによって、深度カメラ110によってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成される。
以下で説明される技術を用いて、プロセッサ120は、姿勢センサ160によって検出されるモバイル機器100の姿勢によって、(例えば、異なるアルゴリズムまたはアルゴリズムのバージョンを選択することによって、かつ/もしくは、使用中のアルゴリズムのパラメータを変化させることによって)ジェスチャー検出アルゴリズムを変更するように構成される。
図2は、モバイル機器100のインターフェース150と協調し、少なくともいくつかの例において、モバイル機器100のプロセッサ120によって生成される制御信号を受け取るインターフェース200を含んだ車両情報および/またはエンターテインメントシステムの模式図である。
この制御信号205は、表示画面および/または1つ以上のラウドスピーカなどのユーザーインターフェース230によって、ユーザに提示する情報および/またはエンターテインメントを生み出すいわゆる"インフォテインメント(娯楽情報)"システム220の動作を制御する制御プロセッサ210に通される。
インターフェース200もまた、Bluetooth(登録商標)無線インターフェースであってよい。ここで、インターフェース200は、モバイル機器100からの音声信号215を受け取るために用いられてもよい。音声信号215は、例えばユーザへの出力用の音楽または電話通信信号であり、それ自体は制御信号ではなく、インフォテインメントシステム220に直接通される。
それ故に、図2の構成は、情報および/またはエンターテインメントシステム220を含んだ車両情報および/またはエンターテインメント機器の一例を含む。このシステム220は、モバイル機器100からの制御信号を(インターフェース200を介して)受け取り、受け取った制御信号に従って、情報および/またはエンターテインメントシステム220の動作を(制御プロセッサ210によって)変えるように構成されている。
したがって前述のように、図1のモバイル機器100、および、図2の車両情報および/またはエンターテインメントシステム220の各々は、無線インターフェース150、200のようなインターフェースをそれぞれ含み、モバイル機器100と、車両情報および/またはエンターテインメントシステム220との間で制御信号を伝達する。
ジェスチャーがインフォテインメントシステム220を制御するために用いられる手段の例としては、音声ボリュームの調整、ラジオチャンネルの変更、電話の呼び出しの開始、エアコンの設定の変更、または同様のものの事柄を含む。
肉体的制御を探らなければならない、すなわち、画面メニューのオプションに触れなければならないことによって車両の運転手が集中力を失うことなく、ジェスチャーベースのシステムが、様々な車両システムを制御可能になるよう、運転手によく適するように熟慮されている。
図3aおよび3bは、図1のモバイル機器100によって検出・認識されるジェスチャーの例を模式的に例示・表示した図である。特に、図3aは、複数のジェスチャーのグラフィック描写を提供し、図3bは、これらの一連のジェスチャーと関連した術語(テクニカルターム)の一覧表を提供している。
このうちいくつかのジェスチャーは、300, 305, 310, 320, 330, 335, 340, 345のように、ユーザの手の動きを検出することを含む。他のジェスチャーは、350, 355のように、ユーザの手の静的配置を検出することを含んでもよい。
図4aおよび4bは、例示的なジェスチャー認識アルゴリズムを表す概略フローチャートを提供している。ステップ400において、奥行き画像が、モバイル機器100の深度カメラ110によって獲得される。ステップ410は、以下に詳述されるジェスチャー検出ステップであり、ステップ420は、検出されたジェスチャーによって決まり、例えばインフォテインメントシステム220へ提供される制御信号の生成を含む。
このようなジェスチャー検出および/または認識技術のさらなる例は、国際公開第2015/104257号パンフレットに開示されており、その内容は、参照によって本明細書に組み込まれる。
図4bにおいては、ステップ410がより詳細に示されており、ステップ430において、指先および同類のもののいわゆる特徴点が、キャプチャ画像において検出される。ステップ440において、その特徴点の動きおよび/または配置が検出される。
ステップ450において、この検出された動きおよび/または配置が、特徴点の例示的な動きおよび/または配置が特定のジェスチャーを示すライブラリに設定(比較)される。
例示的なジェスチャー300、305が、図5から図7を参照して以下に検討・詳述される。
図5は、人さし指が大まかな円運動を行ったときの、ユーザの手が指し示す配置を示した側面図である。図6は、同様の動作を行っているが、人差し指の軸に沿って見た同一の手を示している。
車両内で動作するシステムという状況の中で、ユーザは、運転手座席または乗客席の位置によって制限される固定位置の状態にある。しかし、モバイル機器100は、例えば、概ね水平上向きに2つのフロントシートの間に位置するか、若しくは、後ろ向きにウインドウまたは換気口の取付具に取り付けられるように、車両内の様々な異なる位置をとることができる。
しかしながら、システムのユーザが、単にモバイル機器100が異なる位置にあるという理由で、同様の制御結果を得るために彼または彼女のジェスチャーを変える必要がないことが望ましい。この点に関しては、ユーザの手700が一貫したジェスチャーを実行しようとしているが、下図の上向きから上図の後ろ向きまでのモバイル機器710の考えられる複数の配置、および、それらに関連した視野720を示す図7において、より詳細に図解されている。
車両環境において、ユーザがモバイル機器100を(例えば、上向きの2つのフロントシートの間に、フロントガラス、通気口、または同様のものに)収容できる、または、取り付けられる場所において概ね制限される範囲があると仮定すると、モバイル機器100の位置および姿勢は、幾分互いに関連がある。
そうなると、各々の位置において、ユーザが手のジェスチャーを行うことを検出されるときに、ユーザは、モバイル機器100の向きがユーザに向かっていることが必要であることを十分に理解するであろう。
ユーザが一貫したジェスチャーを行うことを可能にする課題に対応して、モバイル機器100が異なる位置や姿勢にあったとしても、ジェスチャーを検出・認識することができるように、プロセッサ120は、姿勢センサ160によって検出されるモバイル機器100の姿勢に応じて検出アルゴリズムを変更するように構成される。
例えば、2つ以上のジェスチャー検出アルゴリズムが提供されてもよい。そのうちの1つは、モバイル機器710の位置および姿勢の範囲730により適しており、そのうちの1つは、モバイル機器710の位置および姿勢の範囲740により適している。
モバイル機器710の位置および姿勢のそれぞれの範囲730、740内において(または、1つのアルゴリズムのみが、モバイル機器710の位置および姿勢の全範囲(730+740)にわたって提供されるところに)、例えば、認識されるべきジェスチャーを行い始める手の、深度カメラによって予想されるビュー(表示)を較正するために較正データが用いられる。
図8は、このプロセスを示す例示的な概略フローチャートである。
ステップ800において、プロセッサ120は、センサ160から姿勢データを検出する。
プロセッサ120によって利用可能な複数の候補検出アルゴリズム810が存在する場合、その後のステップ820において、プロセッサ120は、(例えば)モバイル機器の姿勢の部分範囲に各々適したものを、つまり、複数の候補検出器810の中から1つのジェスチャー検出アルゴリズムすなわちジェスチャー検出器を選択する。
ステップ830において、プロセッサ120は、選択された検出アルゴリズムを較正、つまり、検出された姿勢に従って検出アルゴリズムの設定またはパラメータを変化させる。ステップ840において、プロセッサ120は、選択されたジェスチャー検出アルゴリズムを適用する。
それ故に、ステップ820では、プロセッサ120は、姿勢センサによって検出されるモバイル機器の姿勢に従って、候補となる2つ以上のジェスチャー検出アルゴリズムから選択するように構成される構成の一例が提供される。
ステップ820と共にまたはステップ820なしで用いられるステップ830において、プロセッサ120が、姿勢センサによって検出されるモバイル機器の姿勢に従って、ジェスチャー検出アルゴリズムの較正パラメータを変化させるか、または、ステップ820を用いた場合には選択されたジェスチャー検出アルゴリズムを変更するように構成される一例が提供される。
図9および10は、特に車載システム技術に関する姿勢センサの使用を模式的に表した図である。
図9において、姿勢センサ900は、重力または下方向ベクトル910に対するモバイル機器100の姿勢を検出して、ベクトル910に対するモバイル機器の姿勢の表示を提供する。これは、例えば、重力センサ、加速度センサ、またはジャイロセンサで実行される。
次に、車両が急旋回するか、若しくは、非常に急激に加速または減速する状況を考える。急旋回の例が、図10の矢印1000で示されている。この状況では、検出された重力ベクトルは、例えば、ベクトル1010で表される角度で実際の垂直から傾く傾向がある。
これは、原則として、モバイル機器100の姿勢の変化として図8のプロセスによって誤って検出され、上述したジェスチャー検出アルゴリズムの変更をもたらす。これが生じるのを回避するために、さまざまな対策を講じることができる。
その一例として、プロセッサ120は、ジェスチャー検出アルゴリズムを、深度カメラの画像キャプチャレートよりも低い頻度で、例えば、キャプチャ画像n枚ごとの頻度で変更するように構成される。nは、例えば100である。
その上またはその代わりに、プロセッサ120は、ローパスフィルタリングプロセスのような平滑化操作を、ジェスチャー検出アルゴリズムの変更に適用するように構成される。
その結果、例えば、検出された姿勢が、(通常の急旋回が車両において実行されるのにかかる時間よりも長いと考えられる数秒または60秒の時定数で)平滑化すなわちローパスフィルタ処理される。そして、平滑化された検出姿勢が、ジェスチャー検出アルゴリズムの変更を制御するために適用される。
これらの構成を実現するために、プロセッサ120は、プログラム命令制御の下で作動して、姿勢の検出および/または検出アルゴリズムに適用される変更に関するフィルタおよび/または遅延操作を実施・制御することができる。
本発明における他の例示的な構成が、図11および12を参照して説明される。この構成においても、(環境がより多く変わり得るフリースペースまたは部屋ベースのシステムというよりはむしろ)モバイル機器の周囲が固定される傾向にある車載システムに特に関する。
図11は、車両前方のほうの取り付け位置の、概ね後方に取り付けられたモバイル機器の深度カメラによって見える例示的な車両内部を概略的に表している。ここで、リアウィンドウ1100、ならびに、運転席および助手席のシート1110が、車両のドア1120、1130と共に見える(分かりやすくするために、運転手および乗客は省略されている)。
カメラが同じ位置および姿勢、つまり同じ背景に留まっている限り、カメラに対して移動しないものに関するキャプチャ画像を用いると、いわゆるオプティカルフロー技術を用いて、姿勢センサ160によって検出された姿勢変化を確認または拒否することができる。換言すると、姿勢変化が検出されたが、それが背景画像の画像の動きと一致しない場合は、この変化は拒否される。
背景全体の動きを検知する必要はない。(リアワイパー1140のような)特定の車内の特徴が、参照ポイントすなわちマーカーとして用いられる。または、連続またはパルス符号の赤外線エミッタ1150、1160が、オプティカルフローの基準点として使用されるために車内に設けられるといった1つ以上のビーコン(望ましくは、間隔を空けて配置された2つ以上のビーコン)が、特定の車内の特徴として用いられる。
実際、そのようなオプティカルフロー技術は、1つの(または唯一の)姿勢感知構成であると考えられる。そのため、姿勢センサは、深度カメラによってキャプチャされた画像の、車両内のオブジェクトの位置変化を検出する検出器を含むと考えられる。
例えば、プロセッサは、姿勢センサによって検出された姿勢変化が、深度カメラによってキャプチャされた画像の、車両内の1つ以上のオブジェクトの位置変化と一致するかどうかを検出するように構成される。
図12は、そのような技術の一例を示す概略フローチャートである。
ステップ1200において、プロセッサ120は、キャプチャされた画像の背景部分を(例えば実際には、20枚の画像の期間にわたって画像から画像へ実質的に変化しないキャプチャ画像の大部分を)検出する。ステップ1210は、図8のステップ800に相当するセンサ160による姿勢変化の検出である。
ステップ1220において、プロセッサ120は、センサによって検出された姿勢変化が、キャプチャされた画像の背景部分において検出された変化または変化の欠如と一致するかどうかを検出する。
その結果が「はい」の場合は、センサによって検出された変化が承諾され、その後のステップ1230で実装される。答えが「いいえ」の場合は、検出された変化は、その後のステップ1240で確認されたときに実装拒否または保留がなされる。
図13は、モバイル機器1300と、車両情報および/またはエンターテイメントシステム(「IVI」すなわち「車載インフォテインメント」[情報および/またはエンターテイメント]システム)1310とを概略的に示している。
上述したように、深度カメラ1320は、図1のプロセッサ120で実行されるソフトウェア1330と通信する。ソフトウェア1330は、図1のセンサ160に相当するセンサ1340からの信号にも応答する。
深度カメラからの画像は、フィルタリング部1332、キャリブレーション部1334、背景除去部1336、セグメンテーション部1338および手ポーズ分類部1342に当てられ、選択されたジェスチャー検出アルゴリズム選択部1344への入力を提供する。ジェスチャー検出アルゴリズムは、少なくとも手ポーズ分類部1342を含む。検出されたジェスチャーに基づいて、制御信号1350が、例えば無線通信リンクによってIVI 1310に伝達される。
他の例では、モバイル機器は、ジェスチャー認識が行われる車両情報および/またはエンターテインメントシステムへの(例えば、インターフェース150/200による)送信のために、深度画像を単にキャプチャして用いられることに留意されたい。
上述したようなジェスチャー検出アルゴリズムの変更を行うことができるように、モバイル機器は、モバイル機器の姿勢もキャプチャする必要がある。これに関しては、本開示の実施形態は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識システムを含む。このジェスチャー認識システムはモバイル機器およびプロセッサを含み、モバイル機器は、深度カメラおよび姿勢センサを有し、プロセッサは、ジェスチャー検出アルゴリズムに従って深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成される。
プロセッサは、姿勢センサによって検出されたモバイル機器の姿勢に応じてジェスチャー検出アルゴリズムを変更するように構成されている。プロセッサは、物理的にIVIまたはモバイル機器の一部とすることができ、かつ/または、処理タスクは、これら2つの機器の間で共有できることに留意されたい。
図14は、車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うためのモバイル機器の作動方法を示す概略フローチャートである。この方法は、
(ステップ1400において)モバイル機器の深度カメラを用いて画像を検出するステップと、
(ステップ1410において)モバイル機器の姿勢を検出するステップと、
(ステップ1420において)ジェスチャー検出アルゴリズムに従って、深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するステップと
を含む。
1つ以上のジェスチャーを検出するステップは、姿勢センサによって検出されたモバイル機器の姿勢に応じて、ジェスチャー検出アルゴリズムを変更すること1430を含む。
上述したように、上記の方法は、図1の記憶装置130に保存されたソフトウェアに従って、図1のモバイル機器のプロセッサ120によって実行される。
他の例示的な実施形態が、ゲーム機のような汎用コンピューティングシステム上で作動するコンピュータソフトウェアによって実施されることが理解される。これらの例では、コンピュータソフトウェアは、コンピュータによって実行されると、コンピュータに、本開示の実施形態と見なされる上記のいずれかの方法を実行させる。
同様に、本開示の実施形態は、そのようなコンピュータソフトウェアを保存する非一時的な機械可読記憶媒体によって提供される。
上記の教示に照らして、本開示の多くの修正および変形が可能であることも明らかである。したがって、添付の特許請求の範囲内で、本開示は、本明細書に具体的に記載されている以外の方法で実施されてもよいことが理解される。
(1)車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うように構成されたモバイル機器であって、
深度カメラと、
姿勢センサと、
ジェスチャー検出アルゴリズムに従って前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
を具備し、
前記プロセッサは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて前記ジェスチャー検出アルゴリズムを変更するように構成されている
モバイル機器。
(2)上記(1)に記載のモバイル機器であって、
前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、候補となる2つ以上のジェスチャー検出アルゴリズムから選択するように構成される
モバイル機器。
(3)上記(2)に記載のモバイル機器であって、
前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、選択されたジェスチャー検出アルゴリズムの較正パラメータを変化させるように構成される
モバイル機器。
(4)上記(1)に記載のモバイル機器であって、
前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、前記ジェスチャー検出アルゴリズムの較正パラメータを変化させるように構成される
モバイル機器。
(5)上記(1)〜(4)のいずれかに記載のモバイル機器であって、
前記深度カメラは、
飛行時間型画像センサと、
ステレオカメラと、
ストラクチャードライトカメラと
で構成されるリストから選択されたセンサを含む
モバイル機器。
(6)上記(1)〜(5)のいずれかに記載のモバイル機器であって、
前記姿勢センサは、
ジャイロセンサと、
加速度センサと
重力センサと、
磁気センサと
で構成されるリストから選択された1つ以上のセンサを含む
モバイル機器。
(7)上記(1)〜(6)のいずれかに記載のモバイル機器であって、
前記プロセッサは、前記姿勢センサによって検出された姿勢変化が、前記深度カメラによってキャプチャされた画像の、車両内の1つ以上のオブジェクトの位置変化と一致するかどうかを検出するように構成される
モバイル機器。
(8)上記(1)〜(5)のいずれかに記載のモバイル機器であって、
前記姿勢センサは、前記深度カメラによってキャプチャされた画像の、車両内のオブジェクトの位置変化を検出する検出器を含む
モバイル機器。
(9)上記(1)〜(8)のいずれかに記載のモバイル機器であって、
前記プロセッサは、前記ジェスチャー検出アルゴリズムを、前記深度カメラの画像キャプチャレートよりも低い頻度で変更するように構成される
モバイル機器。
(10)上記(1)〜(9)のいずれかに記載のモバイル機器であって、
前記プロセッサは、平滑化を、前記ジェスチャー検出アルゴリズムの変更に適用するように構成される
モバイル機器。
(11)上記(1)〜(10)のいずれかに記載のモバイル機器であって、
前記プロセッサは、検出されたジェスチャーによって決まる、前記車両情報および/またはエンターテインメントシステム用の制御信号を生成するように構成される
モバイル機器。
(12)上記(11)に記載のモバイル機器であって、
前記車両情報および/またはエンターテインメントシステムに前記制御信号を伝達する無線インターフェースをさらに含む
モバイル機器。
(13)1つ以上の検出されたジェスチャーによって決まる制御信号を生成するように作動する上記(1)〜(11)のいすれかに記載のモバイル機器と、
前記制御信号を受信し、受信した前記制御信号に従って、システム内の作動を変化させるように構成された車両情報および/またはエンターテインメントシステムシステムと
を具備する
車両情報および/またはエンターテインメント機器。
(14)上記(13)に記載の車両情報および/またはエンターテインメント機器であって、
前記モバイル機器および前記車両情報および/またはエンターテインメントシステムシステムの各々は、前記モバイル機器と、前記車両情報および/またはエンターテインメントシステムとの間で前記制御信号を伝達する無線インターフェースを含む
車両情報および/またはエンターテインメント機器。
(15)深度カメラおよび姿勢センサを有するモバイル機器と、
ジェスチャー検出アルゴリズムに従って前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
を具備し、
前記プロセッサは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて、前記ジェスチャー検出アルゴリズムを変更するように構成される
車両情報および/またはエンターテインメントシステム用のジェスチャー認識システム。
(16)車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うためのモバイル機器の作動方法であって、
前記モバイル機器の深度カメラを用いて画像を検出するステップと、
前記モバイル機器の姿勢を検出するステップと、
ジェスチャー検出アルゴリズムに従って、前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するステップと
を含み、
前記1つ以上のジェスチャーを検出するステップは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて、前記ジェスチャー検出アルゴリズムを変更することを含む
方法。
(17)深度カメラを有するモバイル機器のプロセッサによって実行されると、前記モバイル機器に上記(16)に記載の方法を実行させる
コンピュータソフトウェア。
(18)上記(17)に記載のコンピュータソフトウェアを保存する非一時的な機械可読記憶媒体。

Claims (18)

  1. 車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うように構成されたモバイル機器であって、
    深度カメラと、
    姿勢センサと、
    ジェスチャー検出アルゴリズムに従って前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
    を具備し、
    前記プロセッサは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて前記ジェスチャー検出アルゴリズムを変更するように構成されている
    モバイル機器。
  2. 請求項1に記載のモバイル機器であって、
    前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、候補となる2つ以上のジェスチャー検出アルゴリズムから選択するように構成される
    モバイル機器。
  3. 請求項2に記載のモバイル機器であって、
    前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、選択されたジェスチャー検出アルゴリズムの較正パラメータを変化させるように構成される
    モバイル機器。
  4. 請求項1に記載のモバイル機器であって、
    前記プロセッサは、前記姿勢センサによって検出される前記モバイル機器の姿勢に従って、前記ジェスチャー検出アルゴリズムの較正パラメータを変化させるように構成される
    モバイル機器。
  5. 請求項1に記載のモバイル機器であって、
    前記深度カメラは、
    飛行時間型画像センサと、
    ステレオカメラと、
    ストラクチャードライトカメラと
    で構成されるリストから選択されたセンサを含む
    モバイル機器。
  6. 請求項1に記載のモバイル機器であって、
    前記姿勢センサは、
    ジャイロセンサと、
    加速度センサと
    重力センサと、
    磁気センサと
    で構成されるリストから選択された1つ以上のセンサを含む
    モバイル機器。
  7. 請求項1に記載のモバイル機器であって、
    前記プロセッサは、前記姿勢センサによって検出された姿勢変化が、前記深度カメラによってキャプチャされた画像の、車両内の1つ以上のオブジェクトの位置変化と一致するかどうかを検出するように構成される
    モバイル機器。
  8. 請求項1に記載のモバイル機器であって、
    前記姿勢センサは、前記深度カメラによってキャプチャされた画像の、車両内のオブジェクトの位置変化を検出する検出器を含む
    モバイル機器。
  9. 請求項1に記載のモバイル機器であって、
    前記プロセッサは、前記ジェスチャー検出アルゴリズムを、前記深度カメラの画像キャプチャレートよりも低い頻度で変更するように構成される
    モバイル機器。
  10. 請求項9に記載のモバイル機器であって、
    前記プロセッサは、平滑化を、前記ジェスチャー検出アルゴリズムの変更に適用するように構成される
    モバイル機器。
  11. 請求項1に記載のモバイル機器であって、
    前記プロセッサは、検出されたジェスチャーによって決まる、前記車両情報および/またはエンターテインメントシステム用の制御信号を生成するように構成される
    モバイル機器。
  12. 請求項11に記載のモバイル機器であって、
    前記車両情報および/またはエンターテインメントシステムに前記制御信号を伝達する無線インターフェースをさらに含む
    モバイル機器。
  13. 1つ以上の検出されたジェスチャーによって決まる制御信号を生成するように作動する請求項1に記載のモバイル機器と、
    前記制御信号を受信し、受信した前記制御信号に従って、システム内の作動を変化させるように構成された車両情報および/またはエンターテインメントシステムシステムと
    を具備する
    車両情報および/またはエンターテインメント機器。
  14. 請求項13に記載の車両情報および/またはエンターテインメント機器であって、
    前記モバイル機器および前記車両情報および/またはエンターテインメントシステムシステムの各々は、前記モバイル機器と、前記車両情報および/またはエンターテインメントシステムとの間で前記制御信号を伝達する無線インターフェースを含む
    車両情報および/またはエンターテインメント機器。
  15. 深度カメラおよび姿勢センサを有するモバイル機器と、
    ジェスチャー検出アルゴリズムに従って前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するように構成されたプロセッサと
    を具備し、
    前記プロセッサは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて、前記ジェスチャー検出アルゴリズムを変更するように構成される
    車両情報および/またはエンターテインメントシステム用のジェスチャー認識システム。
  16. 車両情報および/またはエンターテインメントシステム用のジェスチャー認識を行うためのモバイル機器の作動方法であって、
    前記モバイル機器の深度カメラを用いて画像を検出するステップと、
    前記モバイル機器の姿勢を検出するステップと、
    ジェスチャー検出アルゴリズムに従って、前記深度カメラによってキャプチャされた画像から1つ以上のジェスチャーを検出するステップと
    を含み、
    前記1つ以上のジェスチャーを検出するステップは、前記姿勢センサによって検出された前記モバイル機器の姿勢に応じて、前記ジェスチャー検出アルゴリズムを変更することを含む
    方法。
  17. 深度カメラを有するモバイル機器のプロセッサによって実行されると、前記モバイル機器に請求項16に記載の方法を実行させる
    コンピュータソフトウェア。
  18. 請求項17に記載のコンピュータソフトウェアを保存する非一時的な機械可読記憶媒体。
JP2020536953A 2018-01-03 2018-12-27 モバイル機器を用いたジェスチャー認識 Active JP7027552B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18150191 2018-01-03
EP18150191.7 2018-01-03
PCT/EP2018/097032 WO2019134888A1 (en) 2018-01-03 2018-12-27 Gesture recognition using a mobile device

Publications (2)

Publication Number Publication Date
JP2021509988A true JP2021509988A (ja) 2021-04-08
JP7027552B2 JP7027552B2 (ja) 2022-03-01

Family

ID=60935708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536953A Active JP7027552B2 (ja) 2018-01-03 2018-12-27 モバイル機器を用いたジェスチャー認識

Country Status (5)

Country Link
US (2) US11662827B2 (ja)
EP (1) EP3735652A1 (ja)
JP (1) JP7027552B2 (ja)
CN (1) CN111417957B (ja)
WO (1) WO2019134888A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4281946A1 (en) 2021-01-25 2023-11-29 Sony Semiconductor Solutions Corporation Electronic device, method and computer program
DE102021111712A1 (de) 2021-05-05 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Kalibrieren eines Tiefensensors in einem Fahrzeuginnenraum
US20230031200A1 (en) * 2021-07-30 2023-02-02 Jadelynn Kim Dao Touchless, Gesture-Based Human Interface Device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006143159A (ja) * 2004-11-25 2006-06-08 Alpine Electronics Inc 車両用動き認識装置
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
JP2014135668A (ja) * 2013-01-11 2014-07-24 Sharp Corp 携帯端末装置
US20140306877A1 (en) * 2011-08-11 2014-10-16 Itay Katz Gesture Based Interface System and Method
JP2016081286A (ja) * 2014-10-16 2016-05-16 株式会社東芝 端末操作支援装置および端末操作支援方法
JP2019219904A (ja) * 2018-06-20 2019-12-26 ソニー株式会社 プログラム、認識装置、及び、認識方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100575906B1 (ko) * 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8952832B2 (en) * 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
EP2304527A4 (en) * 2008-06-18 2013-03-27 Oblong Ind Inc GESTIK BASED CONTROL SYSTEM FOR VEHICLE INTERFACES
CN102713794A (zh) * 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
US20110181510A1 (en) * 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US8760432B2 (en) * 2010-09-21 2014-06-24 Visteon Global Technologies, Inc. Finger pointing, gesture based human-machine interface for vehicles
US9785335B2 (en) * 2010-12-27 2017-10-10 Sling Media Inc. Systems and methods for adaptive gesture recognition
WO2012141352A1 (en) * 2011-04-13 2012-10-18 Lg Electronics Inc. Gesture recognition agnostic to device orientation
US20130155237A1 (en) * 2011-12-16 2013-06-20 Microsoft Corporation Interacting with a mobile device within a vehicle using gestures
US9223415B1 (en) * 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US20140258942A1 (en) 2013-03-05 2014-09-11 Intel Corporation Interaction of multiple perceptual sensing inputs
US9389779B2 (en) * 2013-03-14 2016-07-12 Intel Corporation Depth-based user interface gesture control
US8886399B2 (en) * 2013-03-15 2014-11-11 Honda Motor Co., Ltd. System and method for controlling a vehicle user interface based on gesture angle
EP2891950B1 (en) 2014-01-07 2018-08-15 Sony Depthsensing Solutions Human-to-computer natural three-dimensional hand gesture based navigation method
US10613642B2 (en) * 2014-03-12 2020-04-07 Microsoft Technology Licensing, Llc Gesture parameter tuning
US10199008B2 (en) * 2014-03-27 2019-02-05 North Inc. Systems, devices, and methods for wearable electronic devices as state machines
US10168785B2 (en) * 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US10747327B2 (en) * 2016-06-28 2020-08-18 Intel Corporation Technologies for adaptive downsampling for gesture recognition
JP6274264B2 (ja) 2016-06-29 2018-02-07 カシオ計算機株式会社 携帯端末装置及びプログラム
US11340706B2 (en) * 2017-11-13 2022-05-24 Zyetric Gaming Limited Gesture recognition based on depth information and computer vision

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006143159A (ja) * 2004-11-25 2006-06-08 Alpine Electronics Inc 車両用動き認識装置
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
US20140306877A1 (en) * 2011-08-11 2014-10-16 Itay Katz Gesture Based Interface System and Method
JP2014135668A (ja) * 2013-01-11 2014-07-24 Sharp Corp 携帯端末装置
JP2016081286A (ja) * 2014-10-16 2016-05-16 株式会社東芝 端末操作支援装置および端末操作支援方法
JP2019219904A (ja) * 2018-06-20 2019-12-26 ソニー株式会社 プログラム、認識装置、及び、認識方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FRANCISCO PARADA-LOIRA, ELISARDO GONZALEZ-AGULLA, JOSE L. ALBA-CASTRO: "Hand Gestures to Control Infotainment Equipement in Cars", 2014 IEEE INTELLIGENT VEHICLES SYMPOSIUM PROCEEDINGS, JPN6021035281, 8 June 2014 (2014-06-08), US, pages 1 - 6, XP032620286, ISSN: 0004589386, DOI: 10.1109/IVS.2014.6856614 *
長谷川 秀太, 赤池 英夫, 角田 博保: "姿勢を考慮したハンドジェスチャーを利用する機器操作の提案・評価", 情報処理学会研究報告, vol. Vol. 2012-HCI-147, No. 24 (2012/3/22), JPN6021035280, 15 April 2012 (2012-04-15), JP, pages 1 - 6, ISSN: 0004589385 *

Also Published As

Publication number Publication date
JP7027552B2 (ja) 2022-03-01
US20230305636A1 (en) 2023-09-28
CN111417957A (zh) 2020-07-14
US11662827B2 (en) 2023-05-30
EP3735652A1 (en) 2020-11-11
US20210064147A1 (en) 2021-03-04
CN111417957B (zh) 2023-10-27
WO2019134888A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
US20190302895A1 (en) Hand gesture recognition system for vehicular interactive control
JP5261554B2 (ja) 指先ポインティング、ジェスチャに基づく車両用ヒューマンマシンインタフェース
US9738158B2 (en) Motor vehicle control interface with gesture recognition
JP7027552B2 (ja) モバイル機器を用いたジェスチャー認識
JP2018150043A (ja) 自動車における情報伝送のためのシステム
US20110310001A1 (en) Display reconfiguration based on face/eye tracking
EP3260331A1 (en) Information processing device
US11787289B2 (en) Vehicle input device, vehicle input method, and non-transitory storage medium stored with vehicle input program
US10209832B2 (en) Detecting user interactions with a computing system of a vehicle
KR102084032B1 (ko) 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법
KR20140072734A (ko) 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
WO2014165218A1 (en) System and method for identifying handwriting gestures in an in-vehicle infromation system
JP2007237919A (ja) 車両用入力操作装置
KR20150000076A (ko) 차량용 블라인드 콘트롤 시스템
KR20140079160A (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
US20130187845A1 (en) Adaptive interface system
KR101946746B1 (ko) 차량에서 비-차량 오브젝트의 위치 결정
JP5800361B2 (ja) 表示制御装置及びそれを用いた表示装置
CN116529125A (zh) 用于控制的手握方向盘手势交互的方法和设备
EP2685361B1 (en) Vehicle graphical user interface arrangement
KR20170079045A (ko) 차량용 사용자 인터페이스 제공 방법 및 장치
JP2006327526A (ja) 車載機器の操作装置
US20160239261A1 (en) User interface and method for assisting a user with the operation of an operating unit
TW201926050A (zh) 車輛多螢幕控制系統及車輛多螢幕控制方法
JP6371589B2 (ja) 車載システム、視線入力受付方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211104

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20211104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220216

R150 Certificate of patent or registration of utility model

Ref document number: 7027552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150