JP7070245B2 - 情報処理装置、動作制御プログラム、及び動作制御方法 - Google Patents

情報処理装置、動作制御プログラム、及び動作制御方法 Download PDF

Info

Publication number
JP7070245B2
JP7070245B2 JP2018158256A JP2018158256A JP7070245B2 JP 7070245 B2 JP7070245 B2 JP 7070245B2 JP 2018158256 A JP2018158256 A JP 2018158256A JP 2018158256 A JP2018158256 A JP 2018158256A JP 7070245 B2 JP7070245 B2 JP 7070245B2
Authority
JP
Japan
Prior art keywords
unit
input device
coordinate
sensor
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018158256A
Other languages
English (en)
Other versions
JP2020034983A (ja
Inventor
慶一 松岡
翼 北山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018158256A priority Critical patent/JP7070245B2/ja
Publication of JP2020034983A publication Critical patent/JP2020034983A/ja
Application granted granted Critical
Publication of JP7070245B2 publication Critical patent/JP7070245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本件は、情報処理装置、動作制御プログラム、及び動作制御方法に関する。
人間の関節に取り付けられた反射マーカに赤外光を照射し、赤外光の反射光を含む撮像画像に基づいて、反射マーカの3次元座標上の位置を測定するモーションキャプチャ装置が知られている(例えば特許文献1参照)。
特許第6253834号公報
ところで、バーチャルYouTuberやVTuberなどと呼ばれる3Dモデルキャラクターが知られている。3DモデルキャラクターはYouTube(登録商標)といった動画投稿サイトに投稿された動画の中の仮想空間上に出現する3次元モデルの画像である。3Dモデルキャラクターは例えばコンピュータグラフィックス(以下、CGという)技術を用いて容姿などが特徴付けられている。近年、YouTuberといった現実の動画投稿者(以下、ユーザという)に代えて、ユーザに相当する3Dモデルキャラクターが動画に出演していることがある。
ここで、各種のセンサが搭載された電子機器を利用して、3Dモデルキャラクターの動作を制御する場合、センサの出力値に基づいてその動作を制御することが想定される。例えば、スマートフォンといった電子機器をユーザが北方向や東方向などに動かした場合に、地磁気センサの出力値に基づいて3Dモデルキャラクターの腕部を前後に動かすことが想定される。また、ユーザがその電子機器を傾けた場合に、加速度センサの出力値に基づいて3Dモデルキャラクターの腕部を上下に動かすことが想定される。このように、ユーザは電子機器を利用して自身の腕部の動作を3Dモデルキャラクターの腕部の動作と連動させることができる。
しかしながら、3Dモデルキャラクターの腕部の動作を複雑に制御する場合、センサの出力値だけでは不十分である。例えば、センサの出力値だけでは、3Dモデルキャラクターの腕部における肘や手首の動作を制御できない可能性がある。尚、上述したモーションキャプチャ装置は高額であり、また、操作方法の習得が難しいため、モーションキャプチャ装置を利用した3Dモデルキャラクターの動作の制御は実施しづらいという欠点がある。
そこで、1つの側面では、ユーザに相当する画像の腕部における肘及び手首の動作を制御することを目的とする。
1つの実施態様では、電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する情報処理装置であって、前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、制御部を備える情報処理装置である。
ユーザに対応する画像の腕部における肘及び手首の動作を制御することができる。
図1は情報処理システムの一例を説明するための図である。 図2は携帯端末のハードウェア構成の一例である。 図3は端末装置のハードウェア構成の一例である。 図4は携帯端末のブロック図の一例である。 図5は端末装置のブロック図の一例である。 携帯端末と端末装置の処理シーケンス図(その1)の一例である。 携帯端末と端末装置の処理シーケンス図(その2)の一例である。 図8(a)は携帯端末の方向及び傾きの一例を説明するための図である。図8(b)はセンサ値の一例を説明するための図である。 図9(a)は入力部に対するタッチ操作の一例を説明するための図である。図9(b)は加工前後の座標値の一例を説明するための図である。 図10は制御データの一例を説明するための図である。 図11は角度差分の一例を説明するための図である。 図12は座標差分の一例を説明するための図である。 図13は補正後の座標差分の一例を説明するための図である。 図14(a)は右腕を前後に動かす動作の一例を説明するための図である。図14(b)は携帯端末の方向の一例を説明するための図である。 図15(a)は右腕を上下に動かす動作の一例を説明するための図である。図15(b)は携帯端末の傾きの一例を説明するための図である。 図16(a)は肘を伸ばす動作の一例を説明するための図である。図16(b)は第1の操作方向(正側)の一例を説明するための図である。 図17(a)は肘を曲げる動作の一例を説明するための図である。図17(b)は第1の操作方向(負側)の一例を説明するための図である。 図18(a)は手首を曲げる動作の一例を説明するための図である。図18(b)は第2の操作方向(正側)の一例を説明するための図である。 図19(a)は手首を伸ばす動作の一例を説明するための図である。図19(b)は第2の操作方向(負側)の一例を説明するための図である。 図20(a)はキャラクタ画像の第1の状態の一例である。図20(b)はキャラクタ画像の第2の状態の一例である。図20(c)はキャラクタ画像の第3の状態の一例である。図20(d)はキャラクタ画像の第4の状態の一例である。 図21(a)は2台の携帯端末を利用した場合の一例を説明するための図である。図21(b)は2台の操作コントローラを利用した場合の一例を説明するための図である。
以下、本件を実施するための形態について図面を参照して説明する。
(第1実施形態)
図1は情報処理システムSTの一例を説明するための図である。情報処理システムSTは電子機器としての携帯端末100と情報処理装置としての端末装置200とを含んでいる。図1では、携帯端末100の一例としてスマートフォンが示されているが、スマートデバイスであれば特に限定されず、タブレット端末やスマートウォッチなどであってもよい。特に、スマートウォッチの場合、ユーザ10が手首に締め付けずに手に握り持てば、スマートフォンと同様に扱うことができる。一方、端末装置200としては例えばPersonal Computer(PC)などがある。上述したスマートデバイスを端末装置200として利用してもよい。
携帯端末100と端末装置200は無線通信WLによって互いに接続されている。無線通信WLとしては、例えばBluetooth(登録商標)やWi-Fi(登録商標)といった近距離通信がある。これにより、例えば携帯端末100は無線通信WLを利用して端末装置200に各種のデータを送信することができる。尚、このように、携帯端末100は無線通信WLを利用できるため、携帯端末100を無線通信器と呼んでもよい。
ここで、携帯端末100には種類が異なる複数のセンサが設けられている。いずれかのセンサは例えば地磁気を検出する。このセンサは、検出した地磁気に基づいて、携帯端末100の方向を特定する角度を算出し、算出した角度をセンサ値として出力する。このセンサと種類が異なる別のセンサは重力加速度を検出する。この別のセンサは検出した重力加速度に基づいて、携帯端末100の傾きを特定する角度を算出し、算出した角度をセンサ値として出力する。また、携帯端末100には入力部130が設けられている。ユーザ10が入力部130に対して親指11を接触した状態で移動させる操作(以下、タッチ操作という)を行うと、入力部130はタッチ操作によって特定された位置の座標を座標値として出力する。携帯端末100はセンサ値及び座標値といった出力値を含む制御データを端末装置200に送信する。
端末装置200は携帯端末100から送信された制御データを受信する。詳細は後述するが、端末装置200は制御データを受信すると、種々の処理を実行して、キャラクタ画像20やそのキャラクタ画像20を含む3次元の仮想空間VSを描画して表示する。キャラクタ画像20は事前に用意され、端末装置200に格納されている。キャラクタ画像20は例えばCG技術を用いてキャラクタ化された3次元モデルの画像である。キャラクタ化は、擬人化、デザイン化、イラスト化、CG化、アニメ-ション化、特徴付けなどの概念を含んでいる。端末装置200は、受信した制御データを利用して、携帯端末100の動きとキャラクタ画像20の動きを関連付けている。したがって、例えばユーザ10が右腕を上に動かす動作を行うと、端末装置200は、ユーザ10が右手に持つ携帯端末100のセンサの出力値を利用して、キャラクタ画像20の右腕を上に動かす処理を実行する。すなわち、ユーザ10の右腕の動きとキャラクタ画像20の右腕の動きが連動する。
次に、図2を参照して、携帯端末100のハードウェア構成について説明する。
図2は携帯端末100のハードウェア構成の一例である。図2に示すように、携帯端末100は、ハードウェアプロセッサとしてのCentral Processing Unit(CPU)100A、Random Access Memory(RAM)100B、Read Only Memory(ROM)100C、Non-Volatile Memory(NVM)100D、及び近距離通信回路100Eを含んでいる。近距離通信回路100Eにはアンテナ100E´が接続されている。近距離通信回路100Eに代えて通信機能を実現するCPU(不図示)が利用されてもよい。
また、携帯端末100は、地磁気センサ100F、加速度センサ100G、入力機器としてのタッチパネル100H、ディスプレイ100I、及びスピーカ100Jを含んでいる。携帯端末100にカメラやマイクなどを含めてもよい。CPU100Aからスピーカ100Jまでは、内部バス100Kによって互いに接続されている。すなわち、携帯端末100は無線通信機能を有するコンピュータによって実現することができる。尚、CPU100Aに代えてMicro Processing Unit(MPU)をハードウェアプロセッサとして利用してもよい。
上述したRAM100Bには、ROM100CやNVM100Dに記憶されたプログラムがCPU100Aによって格納される。格納されたプログラムをCPU100Aが実行することにより、CPU100Aは後述する各種の機能を実現する。また、格納されたプログラムをCPU100Aが実行することにより、CPU100Aは後述する各種の処理を実行する。尚、プログラムは後述する処理シーケンス図に応じたものとすればよい。
次に、図3を参照して、端末装置200のハードウェア構成について説明する。
図3は端末装置200のハードウェア構成の一例である。図3に示すように、端末装置200は、少なくともハードウェアプロセッサとしてのCPU200A、RAM200B、ROM200C、及び近距離通信回路200Dを含んでいる。また、端末装置200は、Hard Disk Drive(HDD)200E、キーボード200F、ディスプレイ200G、及び入出力I/F(インタフェース)200Hを含んでいる。
端末装置200は、必要に応じて、ドライブ装置200Iやポインティングデバイス(不図示)などを含んでいてもよい。CPU200A、・・・、ドライブ装置200Iは、内部バス200Jによって互いに接続されている。すなわち、端末装置200はコンピュータによって実現することができる。尚、CPU200Aに代えてGraphics Processing Unit(GPU)をハードウェアプロセッサとして利用してもよい。
入出力I/F200Hには、半導体メモリ730が接続される。半導体メモリ730としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F200Hは半導体メモリ730に記憶されたプログラムやデータを読み取る。入出力I/F200Hは、例えばUSBポートを備えている。ドライブ装置200Iには、可搬型記録媒体740が挿入される。可搬型記録媒体740としては、例えばCompact Disc(CD)-ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置200Iは、可搬型記録媒体740に記録されたプログラムやデータを読み込む。近距離通信回路200Dは、例えばRadio Frequency(RF)回路を備えている。
上述したRAM200Bには、HDD200Eに記憶されたプログラムがCPU200Aによって格納される。RAM200Bには、可搬型記録媒体740に記録されたプログラムがCPU200Aによって格納される。格納されたプログラムをCPU200Aが実行することにより、CPU200Aは後述する各種の機能を実現する。また、格納されたプログラムをCPU200Aが実行することにより、CPU200Aは後述する各種の処理を実行する。尚、プログラムは後述する処理シーケンス図に応じたものとすればよい。
次に、図4を参照して、携帯端末100の機能構成について説明する。
図4は携帯端末100のブロック図の一例である。図4では携帯端末100の機能の要部が示されている。図4に示すように、携帯端末100は第1検出部110、第2検出部120、入力部130、記憶部140、処理部150、及び通信部160を備えている。第1検出部110、第2検出部120、入力部130、及び処理部150は機能的に互いに接続されている。また、記憶部140、処理部150、及び通信部160は機能的に互いに接続されている。
ここで、第1検出部110は上述した地磁気センサ100Fによって実現することができる。第2検出部120は上述した加速度センサ100Gによって実現することができる。入力部130は上述したタッチパネル100Hによって実現することができる。したがって、第1検出部110は地磁気を検出し、携帯端末100の方向を特定する角度をセンサ値として出力する。第2検出部120は重力加速度を検出し、携帯端末100の傾きを特定する角度をセンサ値として出力する。入力部130はタッチ操作によって特定された位置の座標を座標値として出力する。
また、記憶部140は上述したRAM100B及びNVM100Dの少なくとも一方によって実現することができる。処理部150は上述したCPU100Aによって実現することができる。通信部160は上述した近距離通信回路100E及びアンテナ100E´によって実現することができる。図4に示すように、記憶部140はセンサ値記憶部141及び座標値記憶部142を構成要素として含んでいる。処理部150はセンサ値取得部151及び座標値取得部152を構成要素として含んでいる。
センサ値取得部151は第1検出部110及び第2検出部120から出力された各センサ値を取得して、センサ値記憶部141に保存する。これにより、センサ値記憶部141はセンサ値を記憶する。座標値取得部152は入力部130から出力された座標値を取得し、取得した座標値を加工する。例えば、座標値取得部152は取得した座標値に対し座標変換を実行する。座標値取得部152は加工後(例えば座標変換後)の座標値を座標値記憶部142に保存する。これにより、座標値記憶部142は加工後の座標値を記憶する。通信部160はセンサ値記憶部141と座標値記憶部142のそれぞれからセンサ値と座標値を取得し、取得したセンサ値と座標値を含む制御データを端末装置200に向けて送信する。
次に、図5を参照して、端末装置200の機能構成について説明する。
図5は端末装置200のブロック図の一例である。図5では端末装置200の機能の要部が示されている。図5に示すように、端末装置200は記憶部210、制御部220、通信部230、及び表示部240を備えている。記憶部210は上述したRAM200B及びHDD200Eの少なくとも一方によって実現することができる。制御部220は上述したCPU200Aによって実現することができる。通信部230は上述した近距離通信回路200Dによって実現することができる。表示部240は上述したディスプレイ200Gによって実現することができる。記憶部210、制御部220、通信部230、及び表示部240は機能的に互いに接続されている。
ここで、記憶部210は制御データ記憶部211、角度差分記憶部212、及び座標差分記憶部213を構成要素として含んでいる。一方、制御部220は角度差分算出部221、座標差分算出部222、及び描画部223を構成要素として含んでいる。制御部220の各構成要素は記憶部210の各構成要素の少なくとも1つにアクセスして、各種の処理を実行する。尚、制御部220の各構成要素が実行する処理の詳細については、端末装置200の動作を説明する際に詳しく記載する。
次に、図6から図20を参照して、携帯端末100及び端末装置200の各動作について説明する。
まず、図6に示すように、携帯端末100のセンサ値取得部151は第1検出部110及び第2検出部120のそれぞれから出力されたセンサ値を取得する(ステップS101)。ここで、第1検出部110は地磁気を検出する。第1検出部110は、検出した地磁気に基づいて、図8(a)に示すように、地面又は床面(以下、単に地面という)GDに垂直な軸Z1に対する携帯端末100の方向を特定する角度を算出する。第1検出部110が算出する角度は「0度」から「360度」の範囲内である。ユーザ10が携帯端末100の方向を変える度に、図8(b)に示すように、第1検出部110は携帯端末100の現在の方向を特定する角度を算出し、センサ値として時系列に出力する。尚、第1検出部110が算出する角度は「-180度」から「180度」の範囲内であってもよい。
また、第2検出部120は重力加速度を検出する。第2検出部120は、検出した重力加速度に基づいて、図8(a)に示すように、地面GDに平行な軸Z2に対する携帯端末100の傾きを特定する角度を算出する。第2検出部120が算出する角度は「-90度」から「90度」の範囲内である。ユーザ10が携帯端末100の傾きを変える度に、図8(b)に示すように、第2検出部120は携帯端末100の現在の傾きを特定する角度を算出し、センサ値として時系列に出力する。センサ値取得部151は第1検出部110及び第2検出部120からそれぞれ出力されたセンサ値を取得すると、取得したセンサ値を対応付けてセンサ値記憶部141に保存する。したがって、図8(b)に示すように、センサ値記憶部141は携帯端末100の現在の方向と傾きを一意に特定できるセンサ値を記憶する。
ステップS101の処理が完了すると、次いで、図6に示すように、座標値取得部152は入力部130から出力された座標値を取得する(ステップS102)。具体的には、図9(a)に示すように、入力部130に対してユーザ10が親指11でタッチ操作を行うと、入力部130は、図9(b)に示すように、入力部130の左上隅を原点OとするPQ座標平面の座標値を出力する。例えば、入力部130の画素数がP軸方向に720画素である場合、入力部130が出力するP軸方向の座標値は「0」から「720」の範囲内である。また、入力部130の画素数がP軸に垂直なQ軸方向に1000画素である場合、入力部130が出力するQ軸方向の座標値は「0」から「1000」の範囲内である。このように、座標値取得部152は入力部130から出力されたPQ座標平面の座標値を取得する。
ステップS102の処理が完了すると、次いで、図6に示すように、座標値取得部152は取得した座標値を加工する(ステップS103)。より詳しくは、まず、座標値取得部152はPQ座標平面の各最大画素数を2等分する。上述したように、P軸方向に720画素、Q軸方向に1000画素である入力部130の場合、座標値取得部152がそれぞれの画素を2等分すると、P軸方向に360画素、Q軸方向に500画素になる。この画素の位置を座標値取得部152は新たにXY座標平面の中心点Cの座標値として保持する。すなわち、中心点CのX軸方向の座標値が「0」になり、中心点CのY軸方向の座標値が「0」になる。そして、PQ座標平面の原点OのX軸方向の座標値が「-360」になり、PQ座標平面の原点OのY軸方向の座標値が「500」になる。
このように、入力部130のX軸方向の座標値は「-360」から「360」の範囲内になり、Y軸方向の座標値は「-500」から「500」の範囲内になる。座標値取得部152は中心点Cの座標値を保持すると、取得した座標値を加工する。具体的には、座標値取得部152は取得した座標値と中心点Cの座標値との差分を算出して、PQ座標平面からXY座標平面に座標値を座標変換する。これにより、図9(b)に示すように、座標値取得部152はPQ座標平面で規定される各座標値からXY座標平面で規定される各座標値を得る。座標値取得部152は取得した座標値を加工し終えると、加工後の座標値を座標値記憶部142に保存する。したがって、図9(b)に示すように、座標値記憶部142は入力部130に対して行われたタッチ操作を特定できる加工後の座標値を記憶する。
ステップS103の処理が完了すると、次いで、図6に示すように、通信部160は制御データを送信する(ステップS104)。より詳しくは、通信部160はセンサ値記憶部141からセンサ値を定期的に取得する。通信部160は座標値記憶部142から加工後の座標値を定期的に取得する。特に、通信部160は出力タイミングが同じセンサ値と加工後の座標値を定期的に取得する。通信部160はセンサ値と座標値を取得すると、図10に示すように、データ構造が所定のフォーマット(例えばカンマ区切りの形式など)で規定された制御データを生成して定期的に送信する。
ここで、制御データの送信単位は、1行単位であってもよいし、数行といった複数行単位であってもよい。しかしながら、制御データの送信単位が増加するに従い、携帯端末100の動きとキャラクタ画像20の動きの連動性が悪化する可能性がある。このため、制御データの送信単位は携帯端末100の動きとキャラクタ画像20の動きの連動性が確保できる範囲内であることが望ましい。制御データはセンサ値及び座標値に加え、キャラクタ画像20の操作部位を識別する操作部位識別子を含んでいる。本実施形態では、キャラクタ画像20の右腕を制御するため、キャラクタ画像20の右腕を識別する操作部位識別子「R-ARM」が制御データに含まれている。尚、操作部位識別子はキャラクタ画像20の操作部位に応じて事前に定められている。
ステップS104の処理が完了すると、次いで、図6に示すように、端末装置200の通信部230は制御データを受信する(ステップS201)。通信部230は制御データを受信すると、受信した制御データを制御データ記憶部211に保存する。これにより、制御データ記憶部211は制御データを記憶する。特に、通信部230は制御データを定期的に受信した場合、制御データ記憶部211は制御データを時系列に並べて記憶する。
ステップS201の処理が完了すると、次いで、角度差分算出部221は角度差分を算出する(ステップS202)。より詳しくは、角度差分算出部221は制御データ記憶部211から直近の制御データに含まれるセンサ値を現在の角度として取得する。また、角度差分算出部221は制御データ記憶部211から直近の制御データに連続する直前の制御データに含まれるセンサ値を前回の角度として取得する。現在の角度及び前回の角度はいずれも携帯端末100の方向を特定する角度と携帯端末100の傾きを特定する角度の両方を含んでいる。
角度差分算出部221は現在の角度と前回の角度を取得すると、携帯端末100の方向及び傾き毎に角度差分を算出する。角度差分は現在の角度と前回の角度との差分である。これにより、図11に示すように、携帯端末100の方向と傾きのそれぞれについて角度差分が算出される。図11では、現在の角度から前回の角度が減算されている。このように、角度差分を算出することにより、軸Z1に対する回転方向及び回転量並びに軸Z2に対する回転方向と回転量を特定することができる。ステップS202の処理が完了すると、角度差分算出部221は角度差分を角度差分記憶部212に保存する(ステップS203)。これにより、角度差分記憶部212は携帯端末100の方向と傾きのそれぞれについて角度差分を記憶する。
ステップS203の処理が完了すると、次いで、座標差分算出部222は座標差分を算出する(ステップS204)。より詳しくは、座標差分算出部222は制御データ記憶部211から直近の制御データに含まれる座標値を現在の座標として取得する。また、座標差分算出部222は制御データ記憶部211から直近の制御データに連続する直前の制御データに含まれる座標値を前回の座標として取得する。現在の座標及び前回の座標はいずれも入力部130に対するタッチ操作の操作方向を特定するX座標とY座標の両方を含んでいる。
座標差分算出部222は現在の座標と前回の座標を取得すると、X座標及びY座標毎に座標差分を算出する。座標差分は現在の座標と前回の座標との差分である。これにより、図12に示すように、X座標とY座標のそれぞれについて座標差分が算出される。図12では、現在の座標から前回の座標が減算されている。このように、座標差分を算出することにより、入力部130に対するタッチ操作の操作方向と操作量を特定することができる。
ステップS204の処理が完了すると、座標差分算出部222は座標差分を補正する(ステップS205)。より詳しくは、座標差分算出部222は算出したX座標の座標差分とY座標の座標差分のそれぞれに対し所定の係数を掛けて補正する。所定の係数は、タッチ操作の現実の操作量を表す座標差分とキャラクタ画像20の肘及び手首の回転量を調整するための係数である。本実施形態では、座標差分算出部222は、X座標の座標差分に対し所定の係数として2分の1を掛け、Y座標の座標差分に対し所定の係数として3分の1を掛けている。これにより、図13に示すように、X座標とY座標のそれぞれについて補正後の座標差分が算出される。尚、所定の係数は適宜変更してもよく、本実施形態の数値に限定されない。ステップS205の処理が完了すると、座標差分算出部222は座標差分を座標差分記憶部213に保存する(ステップS206)。これにより、座標差分記憶部213はX座標とY座標のそれぞれについて補正後の座標差分を記憶する。
ステップS206の処理が完了すると、図7に示すように、描画部223はキャラクタ画像20の肩に角度差分を関連付ける(ステップS207)。より詳しくは、描画部223は角度差分記憶部212から携帯端末100の方向の角度差分を取得する。描画部223は方向の角度差分を取得すると、取得した角度差分をキャラクタ画像20の肩に相当する肩関節に関連付ける。特に、図14(a)に示すように、描画部223は、キャラクタ画像20の背骨に平行であり、かつ、肩関節21を貫通する軸Z3の回転方向に、方向の角度差分を関連付ける。これにより、図14(b)に示すように、軸Z1に対してユーザ10が携帯端末100を回転させると、携帯端末100の回転動作に応じて、描画部223はキャラクタ画像20の肩関節21を制御する。これにより、図14(a)に示すように、キャラクタ画像20の右腕25が前後に動作する。
また、描画部223は角度差分記憶部212から携帯端末100の傾きの角度差分を取得する。描画部223は傾きの角度差分を取得すると、取得した角度差分をキャラクタ画像20の肩関節に関連付ける。特に、図15(a)に示すように、描画部223は、キャラクタ画像20の胸と背中の少なくとも一方に垂直であり、かつ、肩関節21を貫通する軸Z4の回転方向に、傾きの角度差分を関連付ける。これにより、図15(b)に示すように、軸Z2に対してユーザ10が携帯端末100を回転させると、携帯端末100の回転動作に応じて、描画部223はキャラクタ画像20の肩関節21を制御する。これにより、図15(a)に示すように、キャラクタ画像20の右腕25が上下に動作する。
ステップS207の処理が完了すると、図7に示すように、描画部223はキャラクタ画像20の肘にY座標の座標差分を関連付ける(ステップS208)。より詳しくは、描画部223は座標差分記憶部213からY座標の補正後の座標差分を取得する。描画部223はY座標の補正後の座標差分を取得すると、取得した座標差分をキャラクタ画像20の肘に相当する肘関節に関連付ける。特に、図16(a)及び図17(a)に示すように、描画部223はキャラクタ画像20の肘関節22を貫通する軸Z5の回転方向に、Y座標の補正後の座標差分を関連付ける。軸Z5は肩関節21を貫通する特定の軸(不図示)の向きを起点として人間の骨格構造と同様に回転可能な軸である。
例えば、軸Z5が軸Z4(図15参照)の向きを起点として回転可能な軸である場合に、図16(b)に示すように、ユーザ10が入力部130に対して親指11でY軸正方向にタッチ操作を行うと、入力部130に対するタッチ操作に応じて、描画部223はキャラクタ画像20の肘関節22を制御する。本実施形態において、第1の操作方向(正側)はY軸正方向である。これにより、図16(a)に示すように、キャラクタ画像20は例えば肘を曲げた状態から肘を伸ばす動作を行う。
また、軸Z5が軸Z4の向きを起点として回転可能な軸である場合に、図17(b)に示すように、ユーザ10が入力部130に対して親指11でY軸負方向にタッチ操作を行うと、入力部130に対するタッチ操作に応じて、描画部223はキャラクタ画像20の肘関節22を制御する。本実施形態において、第1の操作方向(負側)はY軸負方向である。これにより、図17(a)に示すように、キャラクタ画像20は例えば肘を伸ばした状態から肘を曲げる動作を行う。尚、図示しないが、軸Z5が軸Z3(図14参照)の向きを起点として回転可能な軸である場合も軸Z4の場合と同様である。
ステップS208の処理が完了すると、図7に示すように、描画部223はキャラクタ画像20の手首にX座標の座標差分を関連付ける(ステップS209)。より詳しくは、描画部223は座標差分記憶部213からX座標の補正後の座標差分を取得する。描画部223はX座標の補正後の座標差分を取得すると、取得した座標差分をキャラクタ画像20の手首に相当する手関節に関連付ける。特に、図18(a)及び図19(a)に示すように、描画部223はキャラクタ画像20の手関節23を貫通する軸Z6の回転方向にX座標の補正後の座標差分を関連付ける。軸Z6は人間の骨格構造と同様に回転可能な軸であって、手首を曲げたり伸ばしたりする回転方向を表す特定の回転軸であってもよいし、その特定の回転軸と垂直な回転軸であってもよい。
例えば、軸Z6が上述した特定の回転軸である場合に、図18(b)に示すように、ユーザ10が入力部130に対して親指11でY軸と直交するX軸正方向にタッチ操作を行うと、入力部130に対するタッチ操作に応じて、描画部223はキャラクタ画像20の手関節23を制御する。本実施形態において、第2の操作方向(正側)はX軸正方向である。これにより、図18(a)に示すように、キャラクタ画像20は例えば手首を伸ばした状態から手首を曲げる動作を行う。
また、軸Z6が特定の回転軸である場合に、図19(b)に示すように、ユーザ10が入力部130に対して親指11でY軸と直交するX軸負方向にタッチ操作を行うと、入力部130に対するタッチ操作に応じて、描画部223はキャラクタ画像20の手関節23を制御する。本実施形態において、第2の操作方向(負側)はX軸負方向である。これにより、図19(a)に示すように、キャラクタ画像20は例えば手首を曲げた状態から手首を伸ばす動作を行う。尚、図示しないが、軸Z6が上述した特定の回転軸と垂直な軸である場合も特定の回転軸の場合と同様である。
ステップS209の処理が完了すると、図7に示すように、描画部223はキャラクタ画像20を表示部240に描画する(ステップS210)。これにより、図20(a)から図20(d)に示すように、通信部230が制御データを受信する度に、表示部240は関節の動きが関連付けられた複数の状態のキャラクタ画像20を順次表示する。例えば、図20(a)に示すように、右腕25を上方に挙げている第1の状態のキャラクタ画像20が表示されている最中に、ユーザ10が携帯端末100を所定の方向に向けけり傾けたりし、併せて、入力部130に対して所定のタッチ操作を行う。ユーザ10によるこのような行為に基づく制御データに応じて、第1の状態から、図20(b)に示すように、キャラクタ画像20は段階的に第2の状態に移行する。第2の状態は、キャラクタ画像20が右腕25の肘及び手首を伸ばし、右腕25を仮想空間VSの底面VS1と平行にして静止した状態である。
その後、第2の状態から、ユーザ10が入力部130に対してY軸負方向へのタッチ操作を行う。ユーザ10によるこのような行為に基づく制御データに応じて、図20(c)に示すように、第2の状態からキャラクタ画像20は段階的に第3の状態に移行する。第3の状態は、キャラクタ画像20が手首を伸ばして肘を曲げ、右腕25における上腕部を仮想空間VSの底面VS1と平行にして静止した状態である。上腕部は肩関節21と肘関節22の間の部位である(図16(a)参照)。
そして、第3の状態から、ユーザ10が入力部130に対してX軸正方向へのタッチ操作を行う。ユーザ10によるこのような行為に基づく制御データに応じて、図20(d)に示すように、第3の状態からキャラクタ画像20は段階的に第4の状態に移行する。第4の状態は、キャラクタ画像20が肘と手首の両方を曲げ、右腕25における上腕部を仮想空間VSの底面VS1と平行にして静止した状態である。このように、仮想空間VSに出演するキャラクタ画像20の動作は携帯端末100の動作と連動する。ステップS210の処理が完了すると、描画部223は処理を終える。
以上、第1実施形態によれば、携帯端末100には地磁気センサ100F、地磁気センサ100Fと種類が異なる加速度センサ100G、及びタッチパネル100Hがそれぞれ設けられている。一方、端末装置200は地磁気センサ100F、加速度センサ100G、及びタッチパネル100Hの各出力値に基づいて、タッチパネル100Hを操作するユーザ10に対応するキャラクタ画像20の腕部の動作を制御する。特に、端末装置200は制御部220を備えている。制御部220はタッチパネル100Hに対するY軸に関する操作方向の出力値に基づいて、キャラクタ画像20の腕部における肘の動作を制御する。制御部220はタッチパネル100Hに対するX軸に関する操作方向の出力値に基づいて、キャラクタ画像20の腕部における手首の動作を制御する。これにより、ユーザ10に対応するキャラクタ画像20の腕部における肘及び手首の動作を制御することができる。
特に、片手で把持できる大きさの携帯端末100の方向や傾きでキャラクタ画像20の片腕の動作を制御できるだけでなく、親指1本でキャラクタ画像20のその片腕の肘及び手首の動作を同じタイミングで制御できる。このため、キャラクタ画像20に対する操作性が良好である。また、座標変換といった加工により異なる正負の操作方向を特定することができ、肘の曲げと伸ばし、手首の曲げと伸ばしをそれぞれ実現することができる。
(第2実施形態)
続いて、図21を参照して、本件の第2実施形態について説明する。まず、図21(a)に示すように、ユーザ10は2台の携帯端末100,101を利用してキャラクタ画像20の両腕の動作を制御するようにしてもよい。2台の携帯端末100,101はいずれも片手で把持できる大きさである。したがって、例えば、ユーザ10は携帯端末100を右手で持ち、携帯端末101を左手で持ち、携帯端末100,101の方向や傾きを独立して変えることができる。これにより、第1実施形態と対比して、キャラクタ画像20の両腕の複雑な動作を実現することができる。また、ユーザ10は右手の親指11でタッチ操作を行い、左手の親指12でタッチ操作を行うこともできる。これにより、第1実施形態と対比して、キャラクタ画像20の両肘及び両手首の複雑な動作も実現することができる。
また、図21(b)に示すように、ユーザ10は2台の携帯端末100,101に代え、電子機器として2台のスティック状の操作コントローラ300,301を利用してもよい。操作コントローラ300,301としては例えばゲーム機に使用するコンローラやリモコンなどがある。2台の操作コントローラ300,301はいずれも片手で把持できる大きさである。操作コントローラ300,301にはいずれも各種のセンサや入力機器としての入力キー300A,301Aが設けられている。入力キー300A,301Aは親指11,12で操作することができる。操作コントローラ300,301はいずれも携帯端末100,101と同様の無線通信WLを利用することもできる。したがって、操作コントローラ300,301を無線通信器と呼んでもよい。このように、操作コントローラ300,301を利用してキャラクタ画像20の両腕、両肘、及び両手首の動作を制御するようにしてもよい。尚、片腕の動作を制御する場合には、2台の操作コントローラ300,301のいずれか一方を利用すればよい。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述した実施形態では、地磁気センサ100F及び加速度センサ100Gを用いて説明したが、携帯端末100の方向及び傾きを検出できれば、ジャイロセンサや傾斜センサを利用してもよい。また、携帯端末100の通信部160はセンサ値と加工前の座標値とPQ座標平面におけるP軸方向の画素数とQ軸方向の画素数を含む制御データを送信してもよい。この場合、端末装置200の座標差分算出部222がP軸方向の画素数とQ軸方向の画素数を利用して加工前の座標値を加工してもよい。すなわち、座標差分算出部222がステップS103の処理に相当する処理を実行してもよい。さらに、上述した実施形態では、Y軸方向を肘の制御とし、X軸方向を手首の制御としたが、Y軸方向を手首の制御とし、X軸方向を肘の制御としてもよい。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する情報処理装置であって、前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、制御部を備える情報処理装置。
(付記2)前記制御部は、前記入力機器に対する特定の第1の操作方向の出力値に基づいて、前記肘を第1の方向に動作させ、前記入力機器に対する前記特定の第1の操作方向と逆方向の出力値に基づいて、前記肘を前記第1の方向と逆方向に動作させる、ことを特徴とする付記1に記載の情報処理装置。
(付記3)前記制御部は、前記入力機器に対する特定の第2の操作方向の出力値に基づいて、前記手首を第2の方向に動作させ、前記入力機器に対する前記特定の第2の操作方向と逆方向の出力値に基づいて、前記手首を前記第2の方向と逆方向に動作させる、ことを特徴とする付記1又は2に記載の情報処理装置。
(付記4)前記特定の第1の操作方向は、前記特定の第2の操作方向と直交する、ことを特徴とする付記3に記載の情報処理装置。
(付記5)前記制御部は、前記肘の動作及び前記手首の動作の動作速度を調整するための係数に基づいて、前記肘の動作及び前記手首の動作を補正する、ことを特徴とする付記1から4のいずれか1項に記載の情報処理装置。
(付記6)前記制御部は、前記入力機器に対する前記第1の操作方向に関する操作位置の座標を前記第1の操作方向の出力値に加工し、前記入力機器に対する前記第2の操作方向に関する操作位置の座標を前記第2の操作方向の出力値に加工する、ことを特徴とする付記1から5のいずれか1項に記載の情報処理装置。
(付記7)前記電子機器は、前記ユーザが片手で把持できる大きさの無線通信器である、ことを特徴とする付記1から6のいずれか1項に記載の情報処理装置。
(付記8)電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する処理をコンピュータに実行させるための動作制御プログラムであって、前記コンピュータに、前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、処理を実行させることを特徴とする動作制御プログラム。
(付記9)電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する処理をコンピュータが実行する動作制御方法であって、前記コンピュータが、前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、処理を実行することを特徴とする動作制御方法。
(付記10)前記コンピュータは、前記入力機器に対する特定の第1の操作方向の出力値に基づいて、前記肘を第1の方向に動作させ、前記入力機器に対する前記特定の第1の操作方向と逆方向の出力値に基づいて、前記肘を前記第1の方向と逆方向に動作させる、ことを特徴とする付記9に記載の動作制御方法。
(付記11)前記コンピュータは、前記入力機器に対する特定の第2の操作方向の出力値に基づいて、前記手首を第2の方向に動作させ、前記入力機器に対する前記特定の第2の操作方向と逆方向の出力値に基づいて、前記手首を前記第2の方向と逆方向に動作させる、ことを特徴とする付記9又は10に記載の動作制御方法。
(付記12)前記特定の第1の操作方向は、前記特定の第2の操作方向と直交する、ことを特徴とする付記11に記載の動作制御方法。
(付記13)前記コンピュータは、前記肘の動作及び前記手首の動作の動作速度を調整するための係数に基づいて、前記肘の動作及び前記手首の動作を補正する、ことを特徴とする付記9から12のいずれか1項に記載の動作制御方法。
(付記14)前記コンピュータは、前記入力機器に対する前記第1の操作方向に関する操作位置の座標を前記第1の操作方向の出力値に加工し、前記入力機器に対する前記第2の操作方向に関する操作位置の座標を前記第2の操作方向の出力値に加工する、ことを特徴とする付記9から13のいずれか1項に記載の動作制御方法。
(付記15)前記電子機器は、前記ユーザが片手で把持できる大きさの無線通信器である、ことを特徴とする付記9から14のいずれか1項に記載の動作制御方法。
ST 情報処理システム
100 携帯端末
110 第1検出部
120 第2検出部
130 入力部
140 記憶部
150 処理部
160 通信部
200 端末装置
210 記憶部
211 制御データ記憶部
212 角度差分記憶部
213 座標差分記憶部
220 制御部
221 角度差分算出部
222 座標差分算出部
223 描画部
230 通信部
240 表示部

Claims (9)

  1. 電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する情報処理装置であって、
    前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、
    前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、
    制御部を備える情報処理装置。
  2. 前記制御部は、前記入力機器に対する特定の第1の操作方向の出力値に基づいて、前記肘を第1の方向に動作させ、前記入力機器に対する前記特定の第1の操作方向と逆方向の出力値に基づいて、前記肘を前記第1の方向と逆方向に動作させる、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記制御部は、前記入力機器に対する特定の第2の操作方向の出力値に基づいて、前記手首を第2の方向に動作させ、前記入力機器に対する前記特定の第2の操作方向と逆方向の出力値に基づいて、前記手首を前記第2の方向と逆方向に動作させる、
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記特定の第1の操作方向は、前記特定の第2の操作方向と直交する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記制御部は、前記肘の動作及び前記手首の動作の動作速度を調整するための係数に基づいて、前記肘の動作及び前記手首の動作を補正する、
    ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
  6. 前記制御部は、前記入力機器に対する前記第1の操作方向に関する操作位置の座標を前記第1の操作方向の出力値に加工し、前記入力機器に対する前記第2の操作方向に関する操作位置の座標を前記第2の操作方向の出力値に加工する、
    ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記電子機器は、前記ユーザが片手で把持できる大きさの無線通信器である、
    ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  8. 電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する処理をコンピュータに実行させるための動作制御プログラムであって、
    前記コンピュータに、
    前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、
    前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、
    処理を実行させることを特徴とする動作制御プログラム。
  9. 電子機器にそれぞれ設けられた第1のセンサ、前記第1のセンサと種類が異なる第2のセンサ、及び入力機器の各出力値に基づいて、前記入力機器を操作するユーザに対応する画像の腕部の動作を制御する処理をコンピュータが実行する動作制御方法であって、
    前記コンピュータが、
    前記入力機器に対する第1の操作方向の出力値に基づいて、前記腕部における肘の動作を制御し、
    前記入力機器に対する第2の操作方向の出力値に基づいて、前記腕部における手首の動作を制御する、
    処理を実行することを特徴とする動作制御方法。
JP2018158256A 2018-08-27 2018-08-27 情報処理装置、動作制御プログラム、及び動作制御方法 Active JP7070245B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018158256A JP7070245B2 (ja) 2018-08-27 2018-08-27 情報処理装置、動作制御プログラム、及び動作制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158256A JP7070245B2 (ja) 2018-08-27 2018-08-27 情報処理装置、動作制御プログラム、及び動作制御方法

Publications (2)

Publication Number Publication Date
JP2020034983A JP2020034983A (ja) 2020-03-05
JP7070245B2 true JP7070245B2 (ja) 2022-05-18

Family

ID=69668055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158256A Active JP7070245B2 (ja) 2018-08-27 2018-08-27 情報処理装置、動作制御プログラム、及び動作制御方法

Country Status (1)

Country Link
JP (1) JP7070245B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071182A (ja) 2003-08-26 2005-03-17 Matsushita Electric Works Ltd 3次元アニメーション作成支援装置
JP2013176573A (ja) 2013-04-16 2013-09-09 Konami Digital Entertainment Co Ltd ゲームプログラム、ゲーム装置、ゲーム制御方法
JP2013535039A (ja) 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
WO2018075236A1 (en) 2016-10-17 2018-04-26 Aquimo,Llc Method and system for using sensors of a control device for control of a game

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005071182A (ja) 2003-08-26 2005-03-17 Matsushita Electric Works Ltd 3次元アニメーション作成支援装置
JP2013535039A (ja) 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
JP2013176573A (ja) 2013-04-16 2013-09-09 Konami Digital Entertainment Co Ltd ゲームプログラム、ゲーム装置、ゲーム制御方法
WO2018075236A1 (en) 2016-10-17 2018-04-26 Aquimo,Llc Method and system for using sensors of a control device for control of a game

Also Published As

Publication number Publication date
JP2020034983A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
US10754497B2 (en) Two-handed object manipulations in virtual reality
WO2019153750A1 (zh) 用于对虚拟环境进行视角切换的方法、装置、设备及存储介质
WO2019153824A1 (zh) 虚拟对象控制方法、装置、计算机设备及存储介质
US9983687B1 (en) Gesture-controlled augmented reality experience using a mobile communications device
KR101546654B1 (ko) 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
CN109189302B (zh) Ar虚拟模型的控制方法及装置
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
US20170322700A1 (en) Haptic interface for population of a three-dimensional virtual environment
JPWO2019087564A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021535824A (ja) 視角回転の方法、装置及びコンピュータプログラム
JP6219037B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
WO2020138201A1 (ja) ゲームシステム、処理方法及び情報記憶媒体
JP7070245B2 (ja) 情報処理装置、動作制御プログラム、及び動作制御方法
CN109814704B (zh) 一种视频数据处理方法和装置
WO2022014700A1 (ja) 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
JP5247907B1 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
KR101472314B1 (ko) 단일 카메라를 이용한 3차원 입력장치 및 방법
JP5475163B2 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
KR101736072B1 (ko) 채팅인터페이스 제공 장치 및 방법
WO2013176574A1 (en) Methods and systems for mapping pointing device on depth map
CN111580734A (zh) 控制方法、装置、眼镜及存储介质
CN111643885A (zh) 一种基于imu的虚拟现实转向控制方法
JP2017224358A (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220418

R150 Certificate of patent or registration of utility model

Ref document number: 7070245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150