JP7372945B2 - シナリオ制御方法、装置および電子装置 - Google Patents

シナリオ制御方法、装置および電子装置 Download PDF

Info

Publication number
JP7372945B2
JP7372945B2 JP2020571800A JP2020571800A JP7372945B2 JP 7372945 B2 JP7372945 B2 JP 7372945B2 JP 2020571800 A JP2020571800 A JP 2020571800A JP 2020571800 A JP2020571800 A JP 2020571800A JP 7372945 B2 JP7372945 B2 JP 7372945B2
Authority
JP
Japan
Prior art keywords
scenario
target
area
trigger
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571800A
Other languages
English (en)
Other versions
JP2021530032A (ja
Inventor
李旭剛
馮宇飛
柳楊光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Microlive Vision Technology Co Ltd
Original Assignee
Beijing Microlive Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Microlive Vision Technology Co Ltd filed Critical Beijing Microlive Vision Technology Co Ltd
Publication of JP2021530032A publication Critical patent/JP2021530032A/ja
Application granted granted Critical
Publication of JP7372945B2 publication Critical patent/JP7372945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

(関連出願の引用)
本願は、2018年06月29日に中国専利局(特許庁に相当)出願し、出願番号が201810699063.9であり、発明の名称が「シナリオ制御方法、装置および電子装置」である中国特許出願の優先権を主張し、その出願の全文を本願に組み込む。
本発明は、画像処理分野に属し、特に、シナリオ(scenario)制御方法、装置および電子装置に関するものである。
HMI(Human-Machine Interaction)技術の迅速な発展に伴い、ジェスチャーコントロール(gesture control)は自然的でありかつ直観的な交流方法であるので、HMIの重要な一部分になっている。科学技術の迅速な発展とPC視覚技術の普及に伴い、使用者がHMIの自然性に対する要求はますます増加している。マウス、キーボード等の従来のインタラクションは一定の欠点を有しているので、新しいHMIを発明する必要がある。ジェスチャーコントロールは効率的なHMI方法または装置制御方法であるので、ジェスチャーを認識する技術はHMI、モデル認識等の技術分野において重要な研究課題になっている。
従来のジェスチャー認識システムとして通常、下記2種の方法を採用する。
データグローブまたはデータアクセサリーによる方法:その方法により検出と認識の計算方法の複雑性を低減することができるが、データグローブまたはデータアクセサリーを帯びることにより自然的なHMIを獲得することができない。
3Dデプスカメラ(depth camera)による方法:3D走査装置は、堆積が大きく、ハードウェアのコストが多くかかり、演算能力に対する要求が高いという欠点を有しているので、3D走査装置をインテリジェント端末(intelligent terminal)に搭載させにくい。
従来の技術において、シナリオを制御するため複雑な装置を用いる必要がある。実際の応用において、例えばスマートフォンでライブビデオストリーミングをするとき、スマートフォンの携帯性を確保するため、通常スマートフォンにライブビデオストリーミングに用いられる複雑な装置を搭載させない。従来の技術において、シナリオを制御するとき、シナリオの視覚が変化し、シナリオ中の物体とインタラクションをすることができるが、シナリオの形態を制御するか或いはシナリオ中のシナリオの形態を制御することができない。
そのため、本発明の実施例においてシナリオ制御方法、装置および電子装置を提供することにより従来の技術の少なくとも一部分の技術的課題を解決することができる。
本発明の実施例においてシナリオ制御方法を提供する。そのシナリオ制御方法は、
シナリオの第一形態を表示するステップと、
触発対象を認識するステップと、
前記触発対象の動きを判断するステップと、
前記触発対象の動きにより前記シナリオの第一形態をシナリオの第二形態に変換させ、前記シナリオの第一形態と前記シナリオの第二形態を関連させるステップとを含む。
本発明の具体的な実施例において、前記触発対象を認識するステップは、
前記触発対象の特徴情報を獲得するステップと、
前記特徴情報と標準的な特徴情報を比較するステップと、
前記比較の結果により触発対象であるかを判断するステップとを含む。
本発明の具体的な実施例において、前記触発対象の特徴情報を獲得するステップは具体的に、前記触発対象上のキーポイント情報を獲得することである。
本発明の具体的な実施例において、前記触発対象の動きを判断するステップは、
前記触発対象の第一特徴情報を獲得するステップと、
前記触発対象の第二特徴情報を獲得するステップと、
前記第一特徴情報と第二特徴情報により触発対象の動きを判断するステップとを含む。
本発明の具体的な実施例において、前記触発対象の動きを判断するステップは、
触発対象の面積を獲得するステップと、
前記面積により前記触発対象の動きを判断するステップとを含む。
本発明の具体的な実施例において、前記触発対象の動きを判断するステップは、
前記触発対象の第一面積を獲得するステップと、
前記触発対象の第二面積を獲得するステップと、
前記第一面積と第二面積を比較した結果により触発対象の動きを判断するステップとを含む。
本発明の具体的な実施例において、前記触発対象の面積を獲得するステップは、最小の規則フレームを設定し、触発対象を最小の規則フレーム内に位置させるステップと、最小の規則フレームの面積を計算することにより触発対象の面積を獲得するステップとを含む。
本発明の具体的な実施例において、前記触発対象は使用者の手である。
本発明の具体的な実施例において、前記触発対象の動きは、触発対象の打開閉合、回転、遠近方向の移動またはジェスチャーの変化を含む。
本発明の実施例において、シナリオ制御装置を更に提供する。そのシナリオ制御装置は、
シナリオの第一形態を表示する表示モジュールと、
触発対象を認識する認識モジュールと、
前記触発対象の動きを判断する判断モジュールと、
前記触発対象の動きにより前記シナリオの第一形態をシナリオの第二形態に変換させる制御モジュールであって、前記シナリオの第一形態と前記シナリオの第二形態は関連している制御モジュールとを含む。
本発明の具体的な実施例において、前記認識モジュールは、
前記触発対象の特徴情報を獲得する特徴情報獲得モジュールと、
前記特徴情報と標準的な特徴情報を比較する比較モジュールと、
前記比較の結果により触発対象であるかを判断する触発対象判断モジュールとを含む。
本発明の具体的な実施例において、前記触発対象の特徴情報を獲得することは具体的に、前記触発対象上のキーポイント情報を獲得することである。
本発明の具体的な実施例において、前記判断モジュールは、
前記触発対象の第一特徴情報を獲得する第一特徴情報獲得モジュールと、
前記触発対象の第二特徴情報を獲得する第二特徴情報獲得モジュールと、
前記第一特徴情報と第二特徴情報により触発対象の動きを判断する第一動き判断モジュールとを含む。
本発明の具体的な実施例において、前記判断モジュールは触発対象の面積を獲得する面積獲得モジュールを含む。
本発明の具体的な実施例において、前記判断モジュールは、
前記触発対象の第一面積を獲得する第一面積獲得モジュールと、
前記触発対象の第二面積を獲得する第二面積獲得モジュールと、
前記第一面積と第二面積を比較した結果により触発対象の動きを判断する第二動き判断モジュールとを含む。
本発明の具体的な実施例において、前記面積獲得モジュールは、
最小の規則フレームを設定することにより触発対象が最小の規則フレーム内に含まれるようにする規則フレーム設定モジュールと、
最小の規則フレームの面積を計算することにより触発対象の面積を獲得する面積計算モジュールとを含む。
本発明の具体的な実施例において、前記触発対象は使用者の手である。
本発明の具体的な実施例において、前記触発対象の動きは、(触発対象の)打開閉合、回転、遠近方向の移動またはジェスチャーの変化を含む。
本発明の実施例において、電子装置を更に提供する。その電子装置は、少なくとも1つの処理装置と前記少なくとも1つの処理装置に通信可能に連結される記憶装置とを含み、
前記少なくとも1つの処理装置には前記少なくとも1つの処理装置により実行されることができる指令が記憶されており、前記指令が前記少なくとも1つの処理装置により実行されることにより前記処理装置は前記いずれか1つのシナリオ制御方法を実施する。
本発明の実施例において、非過渡性コンピュータ読み取り可能な記憶媒体を更に提供する。前記非過渡性コンピュータ読み取り可能な記憶媒体にはコンピュータ指令が記憶されており、コンピュータで前記コンピュータ指令を実行することにより前記いずれか1つのシナリオ制御方法を実施する。
本発明の実施例において、シナリオ制御方法、装置、電子装置および非過渡性コンピュータ読み取り可能な記憶媒体を提供する。前記シナリオ制御方法は、触発対象の動きにより予め設定されるシナリオ情報を読み取り、それによりシナリオを変換させるか或いはシナリオ中の元素を制御し、かつ触発対象の動きをシナリオに関連させることができる。本発明は、従来の電子装置のハードウェアを改良する必要がなく、電子装置のシナリオを制御することができるので、コストを低減することができる。
以上、本発明の技術事項の概要を説明してきた。本発明の技術的手段をより詳細に理解し、この明細書の内容により本発明を充分に実施し、かつ本発明の前記目的、特徴および発明の効果をより容易に理解してもらうため、以下、好適な実施例と図面により本発明を詳細に説明する。
本発明の実施例の技術事項をより詳細に説明するため、以下、本発明の実施例において用いられる図面を簡単に説明する。注意されたいことは、下記図面は本発明の例示にしか過ぎないものであり、この技術分野の技術者は下記図面により創造的な研究をしなくもて他の図面を想到することができ、それらがあっても本発明に含まれることは勿論である。
本発明の実施例に係るシナリオ制御方法を示す流れ図である。 本発明の実施例において触発対象を認識することを示す流れ図である。 本発明の実施例において触発対象の動きを判断することを示す流れ図である。 本発明の実施例において面積により触発対象の動きを判断することを示す流れ図である。 本発明の実施例に係る最小の規則フレームを示す図である。 本発明の実施例に係るシナリオ制御装置の原理を示すブロック図である。 本発明の実施例に係る電子装置の原理を示すブロック図である。 本発明の実施例に係るコンピュータ読み取り可能な記憶媒体を示す図である。 本発明の実施例に係る端末装置の原理を示すブロック図である。
以下、図面により本発明の実施例を詳細に説明する。
以下、特定の具体的な実施例により本発明の実施形態を説明し、この技術分野の技術者はその明細書が公開する事項により本発明の利点と効果を容易に理解することができる。注意されたいことは、下記実施例は本発明の一部分の実施例を示すものであり、本発明のすべての実施例を示すものでない。この明細書に記載されていない他の具体的な実施形態により本発明を実施するか或いは応用することもできる。観点と応用が異なる場合、本発明の要旨を逸脱しない範囲において本発明の各細部に対していろいろな変更または改良をすることができる。
注意されたいことは、矛盾がない場合、下記実施例と実施例中の特徴を組み合わせることができる。
本発明の実施例において、本技術分野の技術者は創造的な研究をしなくても他の実施例を想到することができ、それらがあっても本発明に含まれることは勿論である。
注意されたいことは、下記明細書において特許請求の範囲に係る実施例の各事項を説明する。
周知のように、この明細書において説明する事項をいろいろな方面に応用することができ、この明細書において説明する任意の特徴と/或いは機能は本発明の例示にしか過ぎないものである。本技術分野の技術者は本発明の事項により本発明の各実施例を独自に実施するか或いは複数の実施例において2つまたは2つ以上を組み合わせて実施することができる。例えば、本発明の任意の数量の実施例に係る装置と/或いは実施方法を自由に採用することができる。本発明において説明する1個または複数個の実施例にのみ限定されるものでなく、他の構造と/或いは機能を採用することにより本発明の装置と/或いは実施方法を実施することもできる。
注意されたいことは、本発明の実施例において提供する図面は本発明の基本的構成のみを示すものであり、図面には本発明の実施例に係るモジュールが示されているが、それらは本発明を実際に実施するときのモジュールの数量、形態およびサイズを示すものでない。本発明を実際に実施するとき、各モジュールの形態、数量および比例を自由に変化させ、各モジュールの配置もより複雑になることができる。
下記実施例において提供する具体的な細部は本発明を徹底的に理解してもらうための実例である。本技術分野の技術者は下記具体的な細部がなくても本発明を実施することができる。
図1に示すとおり、本発明の実施例においてシナリオ制御方法を提供する。前記シナリオ制御方法は下記ステップを含む。
ステップS101において、シナリオの第一形態を表示する。
シナリオの第一形態はシナリオを変換させる前の形態を指す。例えば、具体的な応用においてシナリオの第一形態は2Dシナリオであり、そのシナリオを携帯電話で表示することができる。シナリオの第一形態は3Dシナリオであることもできる。すなわちシナリオを変換させる前の形態において、シナリオの第一形態を表示する状態になると、触発対象を認識するとともに前記触発対象の動きを判断する。
ステップS102において、触発対象を認識する。
シナリオを制御するとき、まず、対象が触発対象であるかを判断する。触発対象でない場合、触発対象が動きをしたかを判断しない。触発対象が認識されるとき、触発対象が動きをしたかを判断するとともにどうのような動きをしたかを判断する。次に、異なる動きにより異なるシナリオ情報を読み取る。
ステップS103において、前記触発対象の動きを判断する。
ステップS102において触発対象を認識した後、前記触発対象が所定の動きをしたかを判断する必要がある。触発対象の動きと記憶されている動きデータを比較することにより触発対象の動きが動きデータベース中のどの動きに相当するかを判断する。
ステップS104において、前記触発対象の動きにより前記シナリオの第一形態をシナリオの第二形態に変換させ、前記シナリオの第一形態と前記シナリオの第二形態は関連している。
ステップS103において所定の動きを判断した後、動きに対応するシナリオ情報を読み出しかつ読み出されるシナリオ情報を表示するか、或いは読み出されるシナリオ情報と従来のシナリオ情報を組み合わせることにより新しいシナリオ情報を形成するか、或いは読み出されるシナリオ情報の代わりに従来のシナリオ情報中のある元素を用いるか、或いは読み出されるシナリオ情報で従来のシナリオ情報を取り替えることができる。
シナリオに含まれている各元素で構成される画面においてシナリオを制御するとき、異なるシナリオを切り替えるか或いは同一のシナリオ中の所定の元素、例えばシナリオ中の所定の物体(例えば球体)の遠近方向の移動を制御することもできる。
本発明の具体的な実施方法において、前記触発対象は使用者の手である。触発対象の動きは、主として、いろいろなジェスチャー、例えば手の打開閉合、回転、遠近方向の移動、ジェスチャーの変化を含むことができる。具体的に、ジェスチャーの変化により携帯電話中のシナリオの変化を制御することができる。
始まるとき、携帯電話に表示される画面はカメラが撮影したリアルタイム画像であり、その画像には音楽効果が加えられている。音楽効果が加えられている画像はシナリオの第一形態である。例えば降雨を示す2D画像シナリオであることができる。カメラで使用者が手を開ける動きを検出するとき、まず、使用者の手を認識する。次に、手が手を開ける動きをしたかを判断する。すなわちげんこつを開ける動きをしたかを判断する。使用者が手を開ける動きをしたとき、所定のシナリオ情報、例えば3D粒子中の降雨情報を読み取り、かつ降雨情報と現在表示されているリアルタイム画像を結合させることにより、携帯電話に雨が降っている3D粒子のシナリオを表示することができる。音楽効果を加えるとき、元の設定により音楽を選択することができる。すなわち、元の背景音楽を選択して流し続けるか或いは、背景音楽を停止させるか或いは、降雨シナリオに適合する他の音楽を選択することができる。携帯電話に表示される降雨の3D粒子シナリオはシナリオの第二形態である。シナリオの第二形態とシナリオの第一形態が関連することを予め設定することができる。シナリオの第一形態において使用者が手を開ける動きを検出するとき、すなわち所定の情報を読み取るとき、シナリオの第一形態をシナリオの第二形態に変換させることができる。
他の具体的な実施例において、携帯電話に表示されるシナリオは青空と白雲であり、携帯電話のカメラで撮影する画像に手が含まれているとき、携帯電話は手を認識した後、手が携帯電話のカメラに相対して前後に移動する動きをしたかを判断する。手が携帯電話のカメラに相対して前後に移動する動きをしたと判断するとき、所定のシナリオ情報を読み取り、雲は手の移動により移動する。例えば手がカメラに近づくとき、雲は携帯電話のパネルから離れ、手がカメラから離れるとき、雲は携帯電話のパネルに近づく。手がカメラに近づくとき、雲は携帯電話のパネルから離れ、手がカメラから離れるとき、雲は携帯電話のパネルに近づく。白雲が移動する前のシナリオはシナリオの第一形態であり、白雲が移動した後のシナリオはシナリオの第二形態である。シナリオの第一形態において手が移動する動きが検出されると、所定の情報を読み取り、シナリオの第一形態をシナリオの第二形態に変換させる。
前記2個の具体的な実施例において、説明を簡単にするため携帯電話を例として説明してきたが、本発明は携帯電話にのみ限定されるものでない。例えばタブレット、ノートパソコン等のような情報処理が可能な電子装置を本発明の技術的事項に用いることもできる。前記具体的な実施例において、触発対象として手を例として説明してきたが、本発明の触発対象は手にのみ限定されるものでない。触発対象は例えば頭部または四肢等であることもできる。触発対象の動きは頭を横を振るか或いは目を瞬く動き等であることができる。
本発明の具体的な実施方法において、図2に示すとおり、ステップS102において触発対象を認識する。具体的に下記ステップを含む。
ステップS201において、前記触発対象の特徴情報を獲得する。
対象の特徴情報は対象の特徴を表示する情報である。例えば対象画像の輪郭情報、キーポイント情報等であることができる。従来の技術において、対象画像の輪郭情報、キーポイント情報を検出する技術は常用技術になっているので、ここで再び説明しない。
ステップS202において、前記特徴情報と標準的な特徴情報を比較する。
ステップS201において前記触発対象の特徴情報を獲得した後、獲得した特徴情報と予め記憶させる標準的な特徴情報を比較する。
ステップS203において、前記比較の結果により触発対象であるかを判断する。
手のシナリオを例とする場合、画像を獲得した後、獲得される画像の輪郭またはキーポイント情報を獲得する必要がある。次に、獲得される画像の輪郭またはキーポイント情報と予め記憶させる手の輪郭またはキーポイント情報を比較し、1つの比較結果が一致するとき、獲得される画像が手の画像であると判断することができる。すなわち触発対象を認識することができる。
実際の応用において、使用者の人数が多い場合、手の輪郭またはキーポイント情報は異なっているので、予め記憶させる手の輪郭またはキーポイント情報の種類は多種であり、サイズが異なるいろいろな手の輪郭またはキーポイント情報が含まれている。それらを比較するとき、獲得する画像の輪郭またはキーポイント情報と予め記憶させる手の輪郭またはキーポイント情報を1つずつ比較し、1つの比較結果が一致するとき、獲得される画像が手の画像であると認識することができる。
本発明の具体的な実施方法において、前記触発対象の特徴情報を獲得するステップは、具体的に前記触発対象上のキーポイント情報を獲得することである。
本発明の具体的な実施方法において、図3に示すとおり、ステップS103において前記触発対象の動きを判断するステップは具体的に下記ステップを含む。
ステップS301において、前記触発対象の第一特徴情報を獲得する。
ステップS302において、前記触発対象の第二特徴情報を獲得する。
ステップS303において、前記第一特徴情報と第二特徴情報により触発対象の動きを判断する。
本発明の例示においてキーポイントとして特徴情報を採用する。手を採用するシナリオにおいて、手をげんこつ状態から展開状態に開ける動きをしていると判断するとき、まず、手がげんこつ状態になっているときのキーポイントを獲得する。次に、手が展開状態になっているときのキーポイントを獲得する。次に、手がげんこつ状態になっているときのキーポイントと記憶されているキーポイントを比較することにより、手がげんこつ状態になっていると判断する。最後に、手が展開状態になっているときのキーポイントと記憶されているキーポイントを比較することにより、手が展開状態になっていると判断する。それにより手が展開の動きをしたと判断することができる。
本発明の具体的な実施方法において、ステップS103において前記触発対象の動きを判断するステップは、触発対象の面積を獲得し、かつ前記面積により前記触発対象の動きを判断するステップを更に含む。
図4に示すとおり、前記面積により前記触発対象の動きを判断するステップは具体的に下記ステップを含む。
ステップS401において、前記触発対象の第一面積を獲得する。
ステップS402において、前記触発対象の第二面積を獲得する。
ステップS403において、前記第一面積と第二面積を比較した結果により触発対象の動きを判断する。
前記げんこつを展開状態に開ける手の動きを例として説明する。手の画像を獲得した後、まず、手がげんこつ状態になっているときの面積を獲得する。次に、手を展開状態に開けたときの面積を獲得する。最後に、手がげんこつ状態になっているときの面積と記憶されている手の面積を比較する。それにより手が展開状態になっていると判断し、かつ手がげんこつ状態から展開状態になる動きをしたと判断する。手が携帯電話から離れる方向へ移動するとき、カメラのパラメーターを変化させない前提下において、手が携帯電話から遠く離れれば離れるほど、手の画像の面積は小さくなり、手が携帯電話に近くなればなるほど、手の画像の面積は大きくなる。そのため手の面積を計算することにより手が携帯電話に相対してする動きを容易に検出することができる。
手の形状は不規則的なものであるので、手の面積を直接に計算しにくい。そのため、本発明の具体的な実施例において、前記触発対象の面積を獲得するステップは具体的に下記ステップを含む。
最小の規則フレーム(regular frame)を設定し、触発対象を最小の規則フレーム内に位置させた後、最小の規則フレームの面積を計算することにより触発対象の面積を獲得する。
図5に示すとおり、規則に対応する長方形を設定し、前記長方形は使用者の手を包囲することができる。その場合、長方形の面積を計算することにより手の面積を計算することができるので、計算量を低減することができる。
本実施例において、規則に対応する長方形を設定し、長方形の面積を計算することにより手の面積を計算し、前記シナリオの元素の移動と長方形の辺長を関連させることができる。前記手が携帯電話に相対して前後に移動するとき、長方形の辺長と携帯電話の移動の距離を関連させ、長方形の辺長により雲の動き軌跡を制御することができる。辺長は線形的に変化し、跳躍的な変形はしない。雲は平滑的に移動し、跳躍的な移動はしない。
図6に示すとおり、本発明の実施例においてシナリオ制御装置を提供する。そのシナリオ制御装置は、
シナリオの第一形態を表示する表示モジュール600と、
触発対象を認識する認識モジュール601と、
前記触発対象の動きを判断する判断モジュール602と、
前記触発対象の動きにより前記シナリオの第一形態をシナリオの第二形態に変換させる制御モジュールであって、前記シナリオの第一形態と前記シナリオの第二形態は関連している制御モジュール603とを含む。
本発明の具体的な実施方法において、前記認識モジュール601は、
前記触発対象の特徴情報を獲得する特徴情報獲得モジュール6011と、
前記特徴情報と標準的な特徴情報を比較する比較モジュール6012と、
前記比較の結果により触発対象であるかを判断する触発対象判断モジュール6013とを含む。
本発明の具体的な実施方法において、前記触発対象の特徴情報を獲得するステップは、具体的に前記触発対象上のキーポイント情報を獲得することである。
本発明の具体的な実施方法において、前記判断モジュール602は、
前記触発対象の第一特徴情報を獲得する第一特徴情報獲得モジュール6021と、
前記触発対象の第二特徴情報を獲得する第二特徴情報獲得モジュール6022と、
前記第一特徴情報と第二特徴情報により触発対象の動きを判断する第一動き判断モジュール6023とを含む。
本発明の具体的な実施方法において、前記判断モジュール602は触発対象の面積を獲得する面積獲得モジュールを更に含む。
本発明の具体的な実施方法において、前記判断モジュール602は、
前記触発対象の第一面積を獲得する第一面積獲得モジュールと、
前記触発対象の第二面積を獲得する第二面積獲得モジュールと、
前記第一面積と第二面積を比較した結果により触発対象の動きを判断する第二動き判断モジュールとを含む。
本発明の具体的な実施方法において、前記面積獲得モジュール603は、
最小の規則フレーム(regular frame)を設定することにより触発対象が最小の規則フレーム内に含まれるようにする規則フレーム設定モジュールと、
最小の規則フレームの面積を計算することにより触発対象の面積を獲得する面積計算モジュールとを含む。
本発明の具体的な実施方法において、前記触発対象は使用者の手である。
本発明の具体的な実施方法において、前記触発対象の動きは、触発対象の打開閉合、回転、遠近方向の移動、ジェスチャーの変化を含む。
図7は本発明の実施例に係る電子装置を示すブロックダイアグラムである。図7に示すとおり、本発明の実施例に係る電子装置70は記憶装置71と処理装置72を含む。
前記記憶装置71は非過渡性コンピュータ読み取り可能な指令を記憶させる。具体的に、記憶装置71は1個または複数個のコンピュータープログラムを含み、前記コンピュータープログラムはいろいろな形態のコンピュータ読み取り可能な記憶媒体、例えば揮発性メモリーと/或いは不揮発性メモリーに記憶されることができる。前記揮発性メモリーは例えば、ランダムアクセスメモリー(RAM)と/或いはキャッシュメモリー(cache)等を含むことができる。前記不揮発性メモリーは例えば、リードオンリーメモリー(ROM)、ハードディスク、フラッシュメモリー等を含むことができる。
前記処理装置72は、中央処理ユニット(CPU)であるか或いはデータ処理機能と/或いは指令実行機能を有している他の形態の処理ユニットであり、電子装置70中の他のモジュールが所望の機能を実行することを制御することができる。本発明の実施例において、前記処理装置72は、前記記憶装置71に記憶されている前記コンピュータ読み取り可能な指令を実行することにより、前記電子装置70が本発明の実施例に係るシナリオ制御方法のすべてまたは一部分のステップを実施するようにする。
本技術分野の技術者が知っているとおり、使用者の使用体験を向上させる技術的問題を解決するため、本実施例の電子装置は、通信バス、インターフェース等の周知の構造を更に含むことができ、前記周知の構造が本発明の特許請求の範囲に含まれることは勿論である。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
図8は本発明の実施例に係るコンピュータ読み取り可能な記憶媒体を示す図である。図8に示すとおり、本発明の実施例に係るコンピュータ読み取り可能な記憶媒体80は非過渡性コンピュータ読み取り可能な指令81を記憶させる。処理装置で前記非過渡性コンピュータ読み取り可能な指令81を実行することにより、本発明の実施例に係るシナリオ制御方法のすべてまたは一部分のステップを実施することができる。
前記コンピュータ読み取り可能な記憶媒体80は、光記憶媒体(例えばCD-ROMとDVD)、光磁気記録媒体(例えばMO)、磁気記録媒体(例えばテープまたはポータブルハードドライブ)、内部に設けられる書き換え可能な不揮発性メモリーを具備する媒体(例えばメモリーカード)、内部にROMが設けられる媒体(例えばROM装置)を含むことができるが、本発明はそれらにのみ限定されるものでない。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
図9は本発明の実施例に係る端末装置のハードウェアを示す構造図である。図9に示すとおり、前記端末装置90は前記実施例のシナリオ制御装置を含む。
前記端末装置はいろいろな形態により実施されることができる。本発明の端末装置は、例えば携帯電話、スマートフォン、ノートパソコン、デジタル放送受信装置、PDA(携帯情報端末)、PAD(タブレット)、PMP(ポータブルメディアプレーヤー)、ナビゲーション、車用端末装置、車用表示端末、車用電子ミラー等の携帯式端末装置と、例えばデジタルTV、デスクトップコンピュータ等の非携帯式端末装置を含むことができるが、本発明はそれらにのみ限定されるものでない。
他の実施例において、前記端末装置90は他のモジュールを更に含むことができる。図9に示すとおり、前記端末装置90は、電源ユニット91、無線通信ユニット92、A/V(オーディオ/ビデオ)入力ユニット93、使用者入力ユニット94、検出ユニット95、接続ユニット96、制御装置97、出力ユニット98および記憶ユニット99等を含むことができる。注意されたいことは、図9には各モジュールを具備する端末が示されているが、本発明は、示されているすべてのモジュールを含まなくてもよく、一部分のモジュールを取り替えるか或いはより少ないモジュールを含むことができる。
無線通信ユニット92は端末装置90と無線通信システムまたはインターネットとの間の無線通信を実施する。A/V入力ユニット93はオーディオまたはビデオ信号を受信する。使用者入力ユニット94は使用者が入力する命令によりキーボード入力データを形成しかつそれにより端末装置の各操作を制御する。検出ユニット95は端末装置90の現在の状態、端末装置90の位置、使用者が端末装置90をタッチすることの有無、端末装置90の傾向、端末装置90の加速移動または減速移動と方向等を検出し、端末装置90を制御して操作する指令または信号を形成する。接続ユニット96は少なくとも1個の外部装置と端末装置90を接続させるインターフェースになることができる。出力ユニット98は視覚、オーディオと/或いは触覚形態の出力信号を出力するように構成される。記憶ユニット99は制御装置97により実行されかつ処理と制御操作に関するソフトウェアプログラムを記憶させるか或いは既に出力されるか或いは間もなく出力されるデータを暫時記憶させることができる。記憶ユニット99は少なくとも1つの類型の記憶媒体を含むことができる。端末装置90はネットワークにより記憶ユニット99に接続されかつ記憶ユニット99の記憶機能を採用するネットワーク記憶装置と協力することができる。制御装置97は通常、端末装置の全体の操作を制御する。制御装置97は、マルチメディアデータの再生またはプレーバックを制御するマルチメディアモジュールを含むことができる。制御装置97はモデル認識処理をすることにより、タッチパネルに入力したハンドライティングインプットまたはドローイングインプットを認識してキャラクターまたは画像を形成することができる。電源ユニット91は制御装置97の制御により外部電力または内部電力を受信しかつそれを各部品とモジュールに提供する電力を供給する。
本発明に係るシナリオ制御方法の各実施例は例えば、コンピュータのソフトウェア、ハードウェア、任意に組み立てられるコンピュータ読み取り可能な記憶媒体がにより実施されることができる。本発明において提供する画像特殊効果の処理方法の各実施例は、アプリケーション固有集積回路(Application Specific Integrated Circuit、ASIC)、デジタルシグナルプロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、処理装置、制御装置、マイクロコントローラ、マイクロプロセッサ、本発明の機能を実施できる電子ユニットのうち少なくとも一種により実施されることができる。他の実施例において、本発明に係るシナリオ制御方法の各実施例は制御装置97により実施されることができる。ソフトウェアにより実施する場合、本発明に係るシナリオ制御方法の各実施例は少なくとも一種の機能または操作をする1つのソフトウェアモジュールにより実施されることができる。ソフトウェアコードは適合なプログラミングランゲージにより編集されるソフトウェアアプリケーション(プログラム)により実施されることができ、フトウェアコードは記憶ユニット99に記憶されかつ制御装置97により実施されることができる。
本実施例に対する詳細な説明は前記各実施例中の所定の説明を参照することができるので、ここで再び説明しない。
以上、具体的な実施例により本発明の基本的な原理を説明してきたが、注意されたいことは、上で公開した本発明の利点、優勢、効果等は、本発明の例示にしか過ぎないものであり、かつ本発明を限定するものでないため、本発明の各実施例は前記利点、優勢、効果等を必ず具備する必要はない。また、上で公開した前記具体的な細部は、本発明の例示にしか過ぎないものであり、かつ本発明を理解させるためのものであるが、本発明を限定するものでない。前記細部が公開されているが、本発明は前記細部のみにより実施されるものでない。
本発明の部品、装置、設備、システムを示すブロックダイアグラムは本発明の例示にしか過ぎないものであり、本発明の部品、装置、設備、システムをブロックダイアグラムの順にのみ連結、位置、配置させる意図は全然ない。本技術分野の技術者は常識により本発明の前記部品、装置、設備、システムを自由に連結、位置、配置させることができる。本発明中の「含む」、「包含する」、「具備する」という用語は開放的な用語であるので、「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その用語を交換して用いることができる。本発明において用いる「或いは」および「と」という用語は「と/或いは」ということを意味し、その用語を交換して用いることができる。特別な説明がない限り、「或いは」および「と」という用語は「と/或いは」ということを意味する。本発明において用いる「例えば」という用語は「複数の事項を具備しているが、それらにのみ限定されるものでない」ということを意味し、その事項を交換して用いることができる。
本発明において用いる「少なくとも1つ」という用語は、含まれる事項が選択可能な状態(例えば或いは、または等)に列挙されていることを意味する。例えば、「A、BまたはCのうち少なくとも1つ」という用語は、AまたはBまたはCを意味するか或いは、ABまたはABまたはBCを意味するか或いは、ABC(すなわちAとBとC)を意味することができる。また、「例示的」という用語は、それが好適な実施例または他の実施例よりよいことを意味するものでない。
注意されたいことは、本発明のシステムと方法において、各部品または各ステップを分解と/或いは再び組み合わせることができる。前記分解と/或いは再び組み合わせるシステムと方法により本発明と同様な効果を獲得することができる。
本発明の特許請求の範囲が定めた技術的範囲を逸脱しない範囲において、本発明の技術的事項を変更、交換、改良することができる。本発明の特許請求の範囲が定めた技術的範囲は、前記処理、装置、製造、事項の組合せ、手段、方法および動きに係る具体的な実施例にのみ限定されるものでない。本発明の所定の事項により同様の機能を実現するか或いは同様の結果による現在の存在を獲得するか或いは後で処理する処理、装置、製造、事件の組合せ、手段、方法および動きをすることができる。すなわち、本発明の特許請求の範囲が定めた技術的範囲内において、前記処理、装置、製造、事件の組合せ、手段、方法および動きをすることができる。
本発明が公開する前記事項により本技術分野の技術者は本発明を実施するか或いは本発明を用いることができる。本発明が定めた技術的範囲を逸脱しない限り、本技術分野の技術者は本発明が公開する事項により本発明を容易に変更し、本発明が定めた一般的な原理を他の実施例に採用することができる。本発明は、具体的な実施例にのみ限定されるものでなく、本発明の原理と新規の特徴が含まれるあらゆる実施例を含むことができる。
以上、本発明を説明するため前記実施例により本発明を説明してきたが、前記実施例は本発明の例示にしか過ぎないものであるため、本発明は前記実施例の構成にのみ限定されるものでない。以上、本発明の複数の例示と実施例を説明してきたが、本技術分野の技術者は本発明の要旨を逸脱しない範囲において、変更、修正、改良、添加および組合せをすることができる。

Claims (8)

  1. シナリオの第一形態を表示するステップと、
    触発対象を認識するステップと、
    前記触発対象の動きを判断するステップと、
    前記触発対象の動きにより前記シナリオの第一形態をシナリオの第二形態に変換させ、前記シナリオの第一形態と前記シナリオの第二形態を関連させるステップとを含み、
    前記触発対象を認識するステップは、
    前記触発対象の特徴情報を獲得するステップと、
    前記特徴情報と標準的な特徴情報を比較するステップと、
    前記比較の結果により触発対象であるかを判断するステップとを含み、
    前記触発対象の画像を獲得した後、前記画像の輪郭またはキーポイント情報を獲得し、かつ前記画像の輪郭またはキーポイント情報と予め記憶させる手の輪郭またはキーポイント情報を比較し、1つの比較結果が一致すると、獲得される前記画像が触発対象の画像であると判断し、
    前記触発対象の動きを判断するステップは、
    前記触発対象の面積を獲得するステップと、
    前記面積により前記触発対象の動きを判断するステップとを含み、
    前記触発対象の面積を獲得するステップは、
    最小の規則フレームを設定し、触発対象を最小の規則フレーム内に位置させるステップと、
    最小の規則フレームの面積を計算することにより触発対象の面積を獲得するステップとを含むことを特徴とするシナリオ制御方法。
  2. 前記触発対象の特徴情報を獲得するステップは具体的に、前記触発対象上のキーポイント情報を獲得することであることを特徴とする請求項1に記載のシナリオ制御方法。
  3. 前記触発対象の動きを判断するステップは、
    前記触発対象の第一特徴情報を獲得するステップと、
    前記触発対象の第二特徴情報を獲得するステップと、
    前記第一特徴情報と第二特徴情報により触発対象の動きを判断するステップとを含むことを特徴とする請求項1に記載のシナリオ制御方法。
  4. 前記触発対象の動きを判断するステップは、
    前記触発対象の第一面積を獲得するステップと、
    前記触発対象の第二面積を獲得するステップと、
    前記第一面積と第二面積を比較した結果により触発対象の動きを判断するステップとを含むことを特徴とする請求項に記載のシナリオ制御方法。
  5. 前記触発対象は使用者の手であることを特徴とする請求項1に記載のシナリオ制御方法。
  6. 前記触発対象の動きは、触発対象の開閉、回転、遠近方向の移動またはジェスチャーの変化を含むことを特徴とする請求項に記載のシナリオ制御方法。
  7. 少なくとも1つの処理装置と前記少なくとも1つの処理装置に通信可能に連結される記憶装置とを含み、
    前記少なくとも1つの処理装置には前記少なくとも1つの処理装置により実行されることができる指令が記憶されており、前記指令が前記少なくとも1つの処理装置により実行されることにより前記処理装置は前記請求項1~のいずれか一項に記載のシナリオ制御方法を実施することを特徴とする電子装置。
  8. コンピュータ指令が記憶されており、コンピュータで前記コンピュータ指令を実行することにより前記請求項1~のいずれか一項に記載のシナリオ制御方法を実施することを特徴とする非過渡性コンピュータ読み取り可能な記憶媒体。
JP2020571800A 2018-06-29 2019-01-25 シナリオ制御方法、装置および電子装置 Active JP7372945B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810699063.9A CN108989553A (zh) 2018-06-29 2018-06-29 场景操控的方法、装置及电子设备
CN201810699063.9 2018-06-29
PCT/CN2019/073076 WO2020001015A1 (zh) 2018-06-29 2019-01-25 场景操控的方法、装置及电子设备

Publications (2)

Publication Number Publication Date
JP2021530032A JP2021530032A (ja) 2021-11-04
JP7372945B2 true JP7372945B2 (ja) 2023-11-01

Family

ID=64539579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020571800A Active JP7372945B2 (ja) 2018-06-29 2019-01-25 シナリオ制御方法、装置および電子装置

Country Status (5)

Country Link
US (1) US11755119B2 (ja)
JP (1) JP7372945B2 (ja)
CN (1) CN108989553A (ja)
GB (1) GB2590207B (ja)
WO (1) WO2020001015A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108989553A (zh) 2018-06-29 2018-12-11 北京微播视界科技有限公司 场景操控的方法、装置及电子设备
CN112445324A (zh) * 2019-08-30 2021-03-05 北京小米移动软件有限公司 人机交互方法及装置
CN111931762B (zh) * 2020-09-25 2021-07-30 广州佰锐网络科技有限公司 基于ai的图像识别解决方法、装置及可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120087543A1 (en) 2010-10-06 2012-04-12 Electronics And Telecommunications Research Institute Image-based hand detection apparatus and method
JP2013037499A (ja) 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013235588A (ja) 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014501011A (ja) 2011-01-03 2014-01-16 エクストリーム リアリティー エルティーディー. 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム
JP2014235698A (ja) 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2016218899A (ja) 2015-05-25 2016-12-22 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
WO2017211740A1 (en) 2016-06-07 2017-12-14 Koninklijke Philips N.V. A device for rendering haptic feedback to a user and a method for operating the device
JP2018084886A (ja) 2016-11-22 2018-05-31 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及系统
US9734393B2 (en) * 2012-03-20 2017-08-15 Facebook, Inc. Gesture-based control system
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
CN103019378B (zh) * 2012-12-07 2016-09-07 无锡清华信息科学与技术国家实验室物联网技术中心 一种移动电子设备手势控制交互方法、装置及移动终端
CN103530613B (zh) * 2013-10-15 2017-02-01 易视腾科技股份有限公司 一种基于单目视频序列的目标人手势交互方法
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
CN205304923U (zh) * 2015-12-23 2016-06-08 武汉哒呤科技有限公司 一种通过手势操作实现交互的手机
US10643390B2 (en) 2016-03-30 2020-05-05 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
CN107589846A (zh) * 2017-09-20 2018-01-16 歌尔科技有限公司 场景切换方法、装置及电子设备
CN108989553A (zh) * 2018-06-29 2018-12-11 北京微播视界科技有限公司 场景操控的方法、装置及电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120087543A1 (en) 2010-10-06 2012-04-12 Electronics And Telecommunications Research Institute Image-based hand detection apparatus and method
JP2014501011A (ja) 2011-01-03 2014-01-16 エクストリーム リアリティー エルティーディー. 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム
JP2013037499A (ja) 2011-08-05 2013-02-21 Toshiba Corp ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム
JP2013235588A (ja) 2012-05-04 2013-11-21 Samsung Electronics Co Ltd 空間上の相互作用に基づく端末の制御方法及びその端末
JP2014235698A (ja) 2013-06-05 2014-12-15 キヤノン株式会社 情報処理装置及びその制御方法
JP2016218899A (ja) 2015-05-25 2016-12-22 コニカミノルタ株式会社 ウェアラブル電子機器およびウェアラブル電子機器のジェスチャー検知方法
WO2017211740A1 (en) 2016-06-07 2017-12-14 Koninklijke Philips N.V. A device for rendering haptic feedback to a user and a method for operating the device
JP2018084886A (ja) 2016-11-22 2018-05-31 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム

Also Published As

Publication number Publication date
GB2590207A (en) 2021-06-23
US11755119B2 (en) 2023-09-12
GB2590207B (en) 2023-02-08
JP2021530032A (ja) 2021-11-04
WO2020001015A1 (zh) 2020-01-02
US20200311398A1 (en) 2020-10-01
CN108989553A (zh) 2018-12-11
GB202100223D0 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
US11017580B2 (en) Face image processing based on key point detection
US10416789B2 (en) Automatic selection of a wireless connectivity protocol for an input device
US8866781B2 (en) Contactless gesture-based control method and apparatus
US20170220126A1 (en) Dynamic user interactions for display control and scaling responsiveness of display objects
JP7152528B2 (ja) フェイシャル特殊効果による複数のフェイシャルの追跡方法、装置および電子機器
US11941181B2 (en) Mechanism to provide visual feedback regarding computing system command gestures
GB2590208A (en) Face-based special effect generation method and apparatus, and electronic device
JP7372945B2 (ja) シナリオ制御方法、装置および電子装置
US20150227198A1 (en) Human-computer interaction method, terminal and system
WO2020019664A1 (zh) 基于人脸的形变图像生成方法和装置
US20130106707A1 (en) Method and device for gesture determination
US10474324B2 (en) Uninterruptable overlay on a display
JP2023552659A (ja) インターフェース表示状態の調整方法及び装置、デバイス、記憶媒体
US20150355717A1 (en) Switching input rails without a release command in a natural user interface
WO2011140752A1 (zh) 电子装置及获取用户操作的方法
US20150268736A1 (en) Information processing method and electronic device
CN111124236B (zh) 一种数据处理方法、装置和机器可读介质
US20190377423A1 (en) User interface controlled by hand gestures above a desktop or a keyboard
KR102480568B1 (ko) 동작인식을 기반으로 하는 가상 입력장치의 사용자 인터페이스(ui)를 표시하는 장치 및 방법
WO2019061052A1 (zh) 一种用于智能终端的分屏显示控制方法
CN110825279A (zh) 平面间无缝切换的方法、装置和计算机可读存储介质
CN109117021A (zh) 基于智能平板的触摸屏控制方法及存储介质、终端设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231020

R150 Certificate of patent or registration of utility model

Ref document number: 7372945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150