JP2023067744A - 姿勢認識方法、姿勢認識機器及び記憶媒体 - Google Patents

姿勢認識方法、姿勢認識機器及び記憶媒体 Download PDF

Info

Publication number
JP2023067744A
JP2023067744A JP2022129892A JP2022129892A JP2023067744A JP 2023067744 A JP2023067744 A JP 2023067744A JP 2022129892 A JP2022129892 A JP 2022129892A JP 2022129892 A JP2022129892 A JP 2022129892A JP 2023067744 A JP2023067744 A JP 2023067744A
Authority
JP
Japan
Prior art keywords
recognition
feature
posture
image
origin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022129892A
Other languages
English (en)
Other versions
JP7402941B2 (ja
Inventor
▲イク▼翔 ▲ホウ▼
yu xiang Hao
建亨 陳
Jianheng Chen
耀哲 ▲ボウ▼
yao zhe Peng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hongfujin Prec Electrons Yantai Co Ltd
Hon Hai Precision Industry Co Ltd
Original Assignee
Hongfujin Prec Electrons Yantai Co Ltd
Hon Hai Precision Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hongfujin Prec Electrons Yantai Co Ltd, Hon Hai Precision Industry Co Ltd filed Critical Hongfujin Prec Electrons Yantai Co Ltd
Publication of JP2023067744A publication Critical patent/JP2023067744A/ja
Application granted granted Critical
Publication of JP7402941B2 publication Critical patent/JP7402941B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0087Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
    • A63B2024/0096Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load using performance related parameters for controlling electronic or video games or avatars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2208/00Characteristics or parameters related to the user or player
    • A63B2208/02Characteristics or parameters related to the user or player posture
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/05Image processing for measuring physical parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2230/00Measuring physiological parameters of the user
    • A63B2230/62Measuring physiological parameters of the user posture

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】動作画像に対する取得と分析により、ユーザのリアルタイムの姿勢を取得することにより、携帯機器上の各種センサーの設置を減らし、使い勝手を向上させる姿勢認識方法、姿勢認識機器及び記憶媒体を提供する。【解決手段】使用者が携帯器材を操作する時の姿勢を認識する姿勢認識機器による姿勢認識方法であって、基準画像に基づいて基準モデルを生成するステップ、ユーザと前記携帯器材とを撮像した画像であって、第2認識特徴を含む動作画像を取得するステップおよび前記基準モデルにおける前記第2認識特徴の大きさ、形状、存在位置を含む第2特徴状況を判定し、姿勢認識情報を生成するステップを備える。【選択図】図3

Description

本出願は、人体認識分野に関し、具体的には、姿勢認識方法、姿勢認識機器及び記憶媒体に関する。
現在、ユーザは、携帯器材を手にして様々な姿勢をとることで、インタラクティブデバイスとのインタラクティブを実現し、インタラクティブデバイスを操作して予め定められたアクション、例えば、ある姿勢に対応する映像を再生したり、ゲームキャラクタをコントロールして所定のアクションを実行したりすること等が可能になる。
インタラクティブデバイスによるユーザの姿勢の特定は、例えば慣性センサーなど、携帯器材上の各種類のセンサーの協働により実現されることが多いため、携帯器材の重量が増加され、一部のセンサーが破損すると、ユーザのアクションによってインタラクティブ機器が動作しなくなりやすく、使い勝手が悪いという欠点があった。
以上のことから、携帯機器の現時点の形態の認識により、ユーザの姿勢の認識、ひいては、ユーザとインタラクションデバイスとのインタラクションを実現する姿勢認識方法、姿勢認識機器及び記憶媒体を提供する必要がある。
第1の態様では、本願の実施例による姿勢認識方法は、ユーザが携帯器材を操作する時の姿勢を認識する姿勢認識方法であって、基準画像に基づいて基準モデルを生成するステップと、
ユーザと前記携帯器材とを撮像した画像であって、第2認識特徴を含む動作画像を取得するステップと、
前記基準モデルにおける前記第2認識特徴の大きさ、形状、存在位置を含む第2特徴状況を判定し、姿勢認識情報を生成するステップと、を備える。
あるいは、
前記基準モデルは、基準座標系であり、
前記基準画像は、前記携帯器材上のモデリング実体特徴に対応する第1モデリング特徴を備え、
前記基準画像に基づいて基準モデルを生成するステップは、
前記基準画像に基準原点を特定するステップと、
前記基準原点と前記第1モデリング特徴に基づいて前記基準座標系を構築するステップと、を含む。
あるいは、第2特徴状況が前記基準モデルにおける前記第2認識特徴を特定して、姿勢認識情報を生成するステップは、
前記動作画像に基づいて比較モデルを作成するステップと、
前記基準モデルと前記比較モデルとを重ね合わせるステップと、
前記第2認識特徴の形状、大きさ、および前記基準原点との位置関係等を含み、前記第2特徴状況が前記基準モデルにおける前記第2認識特徴を特定するステップと、
前記第2特徴状況に基づいて姿勢認識情報を作成するステップと、を備える。
あるいは、前記動作画像は、前記モデリング実体特徴に対応する第2モデリング特徴を備え、
前記比較モデルは、比較座標系であり、
前記動作画像に基づいて比較モデルを生成するステップは、
前記動作画像で比較原点を特定するステップと、
前記比較原点と前記第2モデリング特徴に基づいて前記比較座標系を作成するステップと、を備える。
あるいは、前記基準モデルと前記比較モデルとを重ね合わせるステップは、
前記基準原点と前記比較原点とが重なり合うように、基準座標系と対比座標系とを重ね合わせるステップを備える。
あるいは、前記基準画像は、前記認識実体特徴に対応する第1認識特徴をさらに備え、
前記第2特徴状況に基づいて前記姿勢認識情報を生成するステップは、
前記第1認識特徴の形状、大きさ、及び基準原点との位置関係を含む前記第1認識特徴の第1特徴状況を特定するステップと、
前記第1特徴状況と前記第2特徴状況との差異状況を確認するステップと、および
前記差異状況に基づいて、前記姿勢認識情報を生成するステップと、を備える。
あるいは、前記姿勢認識方法は、前記動作画像に基づいて、方位モデルにおける前記携帯器材の位置を確認して、位置認識情報を生成するステップをさらに備える。
あるいは、前記姿勢認識方法は、位置認識情報と前記姿勢認識情報とに基づいて、ユーザのリアルタイムの姿勢を特定するステップをさらに備える。
第2の態様では、本願の実施例による姿勢認識機器は、認識実体特徴とモデリング実体特徴を備えた携帯器材と、
ユーザが前記携帯器材を操作する時に動作画像を採取する映像採取器と、
コンピュータプログラムを記憶するメモリと、
前記メモリに記憶された前記コンピュータプログラムを実行するプロセッサであって、前記コンピュータプログラムが実行される際、上記いずれか1項に記載の姿勢認識方法を実行するプロセッサと、を備える。
第3の態様では、本願の実施例による記憶媒体は、コンピュータ命令が姿勢認識装置で実行する時、上記いずれかに記載の姿勢認識方法を前記姿勢認識機器に実行させる前記コンピュータ命令を含む。
本願の実施形態による姿勢認識方法、姿勢認識機器、及び記録媒体は、映像採取器が取得した動作画像を解析することにより第2特徴状況を知得し、第2特徴状況に応じてユーザのリアルタイムの姿勢を特定することにより、映像認識のみでユーザの姿勢の認識を実現し、携帯器材に設ける必要がある各種類のセンサを減らして、ユーザの使い勝手を向上する。
本発明の実施例に係る姿勢認識機器の概略図である。 本発明の実施例に係る携帯器材の概略図である。 本発明の実施例に係る姿勢認識方法のフローチャートである。 本発明の実施例に係る姿勢認識方法の他のフローチャートである。 本発明の実施例に係る基準座標系の概略図である。 本発明の実施例に係る比較座標系の概略図である。 本発明の実施例に係る姿勢認識方法の他のフローチャートである。 本発明の実施例に係る姿勢認識方法の他のフローチャートである。 本発明の実施例に係る姿勢認識方法の他のフローチャートである。 本発明の実施例に係る姿勢認識システムの概略図である。
本出願の実施形態における技術的解決手段は、本出願の実施形態における図面を参照して以下に明確かつ完全に説明される。なお、記載された各実施形態は、本出願の実施形態の一部に過ぎず、すべての実施形態ではないことは明らかである。
本発明の一実施例にかかる姿勢認識機器の概略図である図1を参照する。
姿勢認識機器100は、携帯器材10と、映像採集機20と、プロセッサ30と、メモリ40とを備えていてもよい。
前記携帯器材10は、ユーザが手に持って操作するためのものであり、ユーザは、前記携帯器材10を手で持って、前記携帯器材10の所在位置、傾き角度、形状等を変更することで、インタラクティブシステム200とインタラクティブを行う。
前記携帯器材10は弾力性のあるものでもよく、ユーザは前記携帯器材10を付勢することで前記携帯器材10の形状を変えることができると理解できる。本願の実施例では、前記携帯器材10の具体的な形状は限定されない。
例を挙げて説明すると、前記携帯器材10は円環状の弾性部材であり、前記携帯器材10は両端に取手部13が設けられ、その一方の端に方位指示部14が設けられ、ユーザが前記取手部13を両手で持って、前記方位指示部14を上向きにする姿勢は、ユーザが携帯器材10を操作したときの初期姿勢であってもよい。
前記映像採集機20は、ユーザが前記携帯器材10を手に持って所定の姿勢をとったときに、現在の動作画像を取得するためのものであり、前記プロセッサ30と通信接続されており、取得した前記動作画像を前記プロセッサ30に入力することが理解できる。
図2を参照すると、ある実施例において、前記携帯器材10には、複数のモデリング実体特徴11と、複数の認識実体特徴12とが設けられており、前記映像採集機20が、ユーザが前記携帯器材10を操作した画像を取得した場合に、前記複数のモデリング実体特徴11と前記複数の認識実体特徴12とが同時に画像に撮像され、前記プロセッサ30は、前記モデリング実体特徴11に対応する画像上の特徴に対する解析処理によって基準モデルを作成し、前記基準モデルに前記動作画像を入力し、前記基準モデルにおいて前記認識実体特徴12に対応する特徴の態様を特定することで、ユーザが現時点で前記携帯器材10を操作したときの姿勢を特定することができる。
前記複数のモデリング実体特徴11と前記複数の認識実体特徴12は、いずれも、前記携帯器材10の実体に設けられた実体特徴であり、異なる色、形状のスタンプ、ペイントコート、およびボスに限らず、アクティブ式あるいはパッシブ式信号発生装置に限定されないことは理解できる。
例を挙げて説明すると、前記携帯器材10は円環状の弾性部材であり、前記取手部13と前記方位指示部14は共に前記モデリング実体特徴11であり、前記取手部13は円環状になって前記携帯器材10にかけられており、2つの取手部13は前記携帯器材10の両側にそれぞれ位置し、前記方位指示部14は前記携帯器材10の一端に固設されており、前記方位指示部14はアクティブ式信号発生装置、具体的には赤外線発生装置であってもよい。
前記携帯器材10は、円環状を呈する弾性部材であり、前記携帯器材10における前記認識実体特徴12は、前記方位指示部14と前記両ハンドル部13との間の空間にそれぞれ位置する矩形状を呈する複数のバンプと、赤色を呈するコーティング層とであってもよい。
なお、上記映像採集機20は、映像採集機能を有する電子機器、具体的にはビデオカメラ、デジタルカメラ、携帯電話のカメラ等であってもよいが、それらに限らず、空間スキャンにより空間情報を取得する機能を有する電子機器、具体的にはレーザー・レーダー(light detection and ranging,LIDAR)やレーザスキャナ等であってもよいが、それらに限らないことが理解できる。
前記プロセッサ30は、汎用CPU(Central Processing Unit)、マイクロプロセッサ、特定用途向け集積回路(Application-Specific Integrated Circuit,ASIC)、又はこれらプログラムの実行を制御するための1又は複数の集積回路であってもよい。
前記メモリ40は、リードオンリーメモリ(read-only memory、ROM)又は静的情報及び指令を記憶可能な他のタイプの静的記憶デバイス、ランダムアクセスメモリ(random access memory、RAM)又は情報及び指令を記憶可能な他のタイプの動的記憶デバイスであってもよく、電子消去式プログラム可能読取り専用メモリ(Electrically-Erasable Programmable Read-Only Memory、EEPROM)、読取り専用ディスク(Compact Disc Read-Only Memory、CD-ROM)又は他の光ディスク記憶、ディスクメモリ(圧縮ディスク、レーザディスク、ディスク、デジタル汎用ディスク、ブルーレイディスク等を含む)、磁気ディスク記憶媒体又は他の磁気記憶デバイス、又は、指令又はデータ構造形式を有する所望のプログラムコードを携帯又は記憶することが可能でありコンピュータからアクセス可能な任意の他の媒体であってもよいが、これらに限定されない。メモリ40は、独立して存在し、バスを介してプロセッサ30に接続されてもよい。メモリ40は、プロセッサ30と一体化されていてもよい。
前記プロセッサ30は、前記インタラクションシステム200と通信接続されてもよく、受信した前記動作画像の解析処理を行うことにより、ユーザの現在のリアルタイムな姿勢を特定し、対応するリアルタイムな姿勢情報を前記インタラクションシステム200に出力することにより、前記インタラクションシステム200に対応するレスポンスを行わせることが理解される。
例を挙げて説明すると、前記携帯器材10は、弾力性のあるフィットネスリングであってもよく、前記インタラクションシステム200は、ディスプレイが接続されたフィットネス用ゲーム機であってもよく、前記携帯器材10は、両端に取手部13が設けられ、一端に方位指示部14が設けられ、ユーザが前記取手部13を両手で持って、前記方位指示部14を上に向けて設置すると、前記映像採集機20は、ユーザの現在の前記動作画像を取得して前記プロセッサ30に入力し、前記プロセッサ30は、前記動作画像解析処理を行うことにより、ユーザの現在の姿勢がフィットネス予備姿勢であることを特定し、当該姿勢に応じた前記リアルタイム姿勢情報を前記インタラクションシステム200に出力し、前記インタラクションシステム200は、予め設定されたエクササイズ準備インタフェースを、外付けのディスプレイを介して表示することができる。
ユーザが前記取手部13を両手で持ち前記方位指示部14を前に向けながら前記携帯器材10を両手で押圧し、前記携帯器材10を歪ませると、前記映像採集機20がユーザの現在の動作画像を取得して前記プロセッサ30に入力し、前記プロセッサ30は、前記動作画像に対する解析処理を行うことにより、ユーザの現在の姿勢が健腕姿勢であることを特定し、当該姿勢に応じた前記リアルタイム姿勢情報を前記インタラクションシステム200に出力し、前記インタラクションシステム200は、外付けのディスプレイによって表示されるゲームキャラクタが跳ね上げた映像を表示することができる。
記憶部40は、姿勢認識方法を実行するためのアプリケーションコードを記憶しており、プロセッサ30により実行が制御されていることが理解される。プロセッサ30は、メモリ40に記憶されたアプリケーションプログラムのコードを実行することにより、動作画像に対する解析処理を実現する。
本開示の一実施形態による姿勢認識方法の模式図である図3を参照する。
本実施形態の姿勢認識方法は、以下のステップを含んでもよい。
基準画像に基づいて前記基準モデルを生成するステップS31。
前記基準画像は、ユーザが前記携帯器材10を操作して前記初期姿勢をとったときの画像であることが理解できる。
一例を挙げると、前記携帯器材10は、円環状の弾性部品であってもよく、前記初期姿勢は、ユーザが立っており、その両手で前記取手部13を持って、前記方位指示部14を上向きにした姿勢であってもよい。
ある可能なシナリオにおいて、前記基準画像は、工場出荷前に予め前記姿勢認識機器100が設定したものであってもよい。別の可能なシナリオにおいて、前記基準画像は、ユーザが前記映像採集機20を最初に起動したとき、ユーザが前記携帯器材10を手に持って前記初期姿勢をとったときに、前記映像採集機20が収集して前記プロセッサ30に入力されるものであってもよく、本願の実施例はこれに限定されるものではない。
前記基準画像が、ユーザが前記映像採集機20を最初に起動した際に、前記映像採集機20による採集後に前記プロセッサ30に入力された場合には、ステップS31を行う前に前記映像採集機20から前記基準画像を取得する必要があることが理解できる。
前記基準モデルは、基準座標系であることが理解できる。
図4を参照して、前記基準モデルの作成の具体的方法は、以下のステップを含んでもよい。
前記基準画像に基準原点を特定するステップS41。
前記基準原点は、前記基準モデルの作成の根拠の1つであり、前記基準画像上の特徴を解析することで求められるものであると理解できる。
一実施形態では、前記基準画像は、前記携帯器材10上の複数の前記モデリング実体特徴11に対応する複数の第1モデリング特徴を含み、前記基準原点は、前記複数の第1モデリング特徴に対する識別・解析によって得られる。
図5Aを参照して、例を挙げて説明すると、前記携帯器材10は円環状の弾性部材であってもよく、前記携帯器材10の両側に設けられた前記取手部13と、前記携帯器材10の一端に設けられた前記方位指示部14とは、いずれも前記モデリング実体特徴11であり、前記基準画像において、2つの前記取手部13に対応する前記第1モデリング特徴を先に結線して第1結線を形成し、前記方位指示部14に対応する前記第1モデリング特徴を起点として前記第1の結線に垂直な線分として第2結線を形成し、前記第1結線と前記第2結線との交点である前記基準原点Oを最終的に特定する。
ある実施例において、前記基準画像は、前記携帯器材10における前記複数の認識実体特徴12に対応する複数の第1認識特徴をさらに含む。
前記基準原点と複数の前記第1モデリング特徴に基づいて前記基準座標系を作成するステップS42。
上記の基準座標系の座標軸の数は2以上のいかなる整数であってもよく、本願の実施例はこれに限定されるものではないことは理解される。
前記基準原点を特定した後、前記基準原点を座標系の原点として、前記基準座標系が構築され、前記基準座標系の座標軸は、前記第1モデリング特徴の識別・解析によって得られることが理解される。
一例を挙げると、前記基準座標系は、前記基準原点Oを原点とし、前記取手部13に対応する前記第1モデリング特徴と前記基準原点Oとの結線を基準としてX軸を特定し、前記方位指示部14に対応する前記第1モデリング特徴と前記基準原点Oとの結線を基準としてY軸を特定する2次元座標系である。
一例を挙げると、前記基準座標系は、前記基準原点Oを原点とし、前記取手部13に対応する前記第1モデリング特徴と前記基準原点Oとの結線を基準としてX軸を特定し、前記方位指示部14に対応する前記第1モデリング特徴と前記基準原点Oとの結線を基準としてY軸を特定し、最後に、前記基準原点Oを原点とし、X軸およびY軸が位置する平面に垂直なZ軸を特定する3次元座標系である。
前記基準座標系は、前記基準画像上に作成されているので、複数の前記第1認識特徴はいずれも、前記基準座標系内にあることが理解される。
前記動作画像を取得するステップS32。
ユーザが前記携帯器材10を操作して所定の姿勢をとると、前記映像採集機20が前記動作画像を収集し、前記プロセッサ30が前記動作画像を取得してユーザの現在の姿勢を解析するために用いることが理解できる。
ある実施例において、前記動作画像は、複数の前記認識実体特徴12に対応する複数の第2認識特徴を含んでおり、前記プロセッサ30は、前記動作画像における前記第2認識特徴の第2特徴状況を特定することにより、ユーザの現在の姿勢を特定してもよい。
ある実施例において、前記動作画像は、複数の前記モデリング実体特徴11に対応する複数の前記第2モデリング特徴を含んでおり、さらに、複数の前記第2モデリング特徴の分析により、前記基準モデルとは別のモデルを構築し、2つのモデルを突き合わせることで、前記動作画像と前記基準画像との区別を判定し、ユーザの現在の姿勢を特定してもよい。
前記第2認識特徴が前記基準モデルにおける第2特徴状況を特定するステップS33。
前記第2特徴状況は、前記第2認識特徴の形状、大きさ、および前記基準原点との位置関係等を含むことが理解できる。
ユーザが異なる特定姿勢をとった場合には、前記携帯器材10の形状、前記映像採集機20との間の偏向角度、前記携帯器材10自体の回動角度等の要因が異なり得るため、前記認識実体特徴12の形状、位置、大きさ等は異なっていてもよい。したがって、取得した第2特徴状況を、当該第2認識特徴を解析することで、ユーザの現在の姿勢を判定する根拠とすることができる。
図6を参照して、上記第2特徴状況の特定方法は以下のステップを含んでもよい。
前記動作画像に基づいて比較モデルを作成するステップS61。
前記基準画像からの前記基準モデルの生成と同様に、前記比較モデルは、前記第2の特徴状況を特定するために、前記動作画像から生成することが理解される。
上記比較モデルは、比較座標系であることが理解できる。
図7を参照すると、ある実施例において、上記比較モデルの作成方法は、以下のステップを含んでもよい。
動作画像で比較原点を特定するステップS71。
なお、比較原点は、前記比較モデルの作成の根拠の1つであり、前記動作画像上の特徴を解析することで求められるものであると理解できる。比較原点は、複数の第2モデリング特徴に対する識別・解析によって得ることができる。
図5Bを参照して、例を挙げて説明すると、前記携帯器材10は円環状の弾性部材であってもよく、前記携帯器材10の両側に設けられた前記取手部13と、前記携帯器材10の一端に設けられた前記方位指示部14とは、いずれも前記モデリング実体特徴11であり、前記動作画像において、2つの前記取手部13に対応する前記第2モデリング特徴を先に結線して第3結線を形成し、前記方位指示部14に対応する前記第2モデリング特徴を起点として前記第3結線に垂直な線分として第4結線を形成し、前記第3結線と前記第4結線との交点である前記基準原点O’を最終的に特定する。
前記比較原点と複数の前記第2モデリング特徴に基づいて前記比較座標系を作成するステップS72。
前記比較座標系の座標軸の数は、前記基準座標系の座標の数と等しいことが理解される。
前記比較原点を特定した後、前記比較原点を座標系の原点として、前記比較座標系が構築され、前記比較座標系の座標軸は、前記第2モデリング特徴の識別・解析によって得られることが理解される。
一例を挙げると、前記比較座標系は、前記比較原点O’を原点とし、前記取手部13に対応する前記第2モデリング特徴と前記比較原点O’との結線を基準としてX’軸を特定し、前記方位指示部14に対応する前記第2モデリング特徴と前記比較原点O’との結線を基準としてY’軸を特定し、最後に、前記比較原点O’を原点とし、X’軸およびY’軸が位置する平面に垂直なZ’軸を特定する3次元座標系である。
前記比較座標系は、前記動作画像上に作成されているので、複数の前記第2認識特徴はいずれも、前記基準座標系内にあることが理解される。
前記基準モデルと前記比較モデルとを重ね合わせるステップS62。
前記基準モデルは前記基準座標系であり、前記比較モデルは前記比較座標系であり、前記基準モデルと前記比較モデルとを重ね合わせる具体的な方法は、前記基準原点と前記比較原点とを重ね合わせてもよく、このように、前記比較座標系における複数の前記第2認識特徴はいずれも前記基準座標系に表示されることが理解される。
前記複数の第2認識特徴が前記基準モデルにおける第2特徴状況を特定するステップS63。
前記第2特徴状況は、前記基準モデルにおける前記基準原点と各座標軸とを参照物とすることにより、前記第2認識特徴の形状、大きさ、前記基準原点との位置関係、および偏向角度等を含むことが理解できる。
前記基準座標系において前記第2認識特徴の座標を特定することにより、前記第2認識特徴と前記基準原点との位置関係が特定可能であることは理解される。
前記基準座標系の座標軸と前記比較座標系の座標軸とのなす角を比較することにより、前記第2認識特徴の偏向角度が特定可能であることが理解される。例えば、前記比較座標系のX’軸が、前記基準座標系のX軸を反時計回りに30度回転させることにより得るときに、前記第2認識特徴のX軸方向における偏向角度が30度であると特定することができる。
なお、前記第2認識特徴についての前記第2特徴状況は、前記基準座標系における第2認識特徴の解析により求めてもよいし、前記比較座標系と前記基準座標系との比較により求めてもよい。
複数の第2認識特徴は、複数の第2特徴状況であることを対応付けることが可能であることが理解できる。
一例を挙げて説明すると、前記比較座標系と前記基準座標系とがいずれも3次元座標系であり、前記比較座標系と前記基準座標系とが重ね合わせられた後、比較することにより、前記第2認識特徴がX軸方向に30度ずれており、前記第2認識特徴が円餅状であり、かつ、前記第2認識特徴の中央の前記基準座標軸内における座標が(3,1,1)であれば、上記情報は、共に当該第2認識特徴の前記第2特徴であることがわかる。
前記第2特徴状況に基づいて姿勢認識情報を作成するステップS34。
ユーザの姿勢が異なり、その動作画像が異なり、前記プロセッサー30は、異なる前記第2特徴状況も同じではないことを認識して解析されてもよい。
ある実施例において、異なる前記複数の第2特徴状況が、異なる前記姿勢認識情報に対応付けられている。
メモリ40には、異なる前記複数の第2特徴状況と、異なる前記複数の第2特徴状況に対応する前記姿勢認識情報とが記録される第1データベースが記憶されており、前記プロセッサ30は、前記第2特徴状況が特定されると、前記メモリ40から前記メモリ40における前記第1データベースを読み出して、前記第2特徴状況に対応する前記姿勢認識情報を生成してもよい。
図8を参照して、他の実施形態において、上記第2特徴状況に応じて姿勢認識情報を生成する具体的な方法は、以下のステップを含んでもよい。
前記複数の第1認識特徴の第1特徴状況を特定するステップS81。
前記第1特徴状況は、前記基準モデルにおける前記基準原点と各座標軸とを参照物とすることにより、前記第1認識特徴の形状、大きさ、および前記基準原点との位置関係等を含むことが理解できる。
前記基準座標系において前記第1認識特徴の座標を特定することにより、前記第1認識特徴と前記基準原点との位置関係が特定可能であることは理解される。
複数の第1認識特徴は、複数の第1特徴状況であることを対応付けることが可能であることが理解される。
例に挙げて説明すると、前記基準座標系が2次元座標系であり、前記第1認識特徴は円形であり、かつ、その円心の前記基準座標軸内における座標が(3,1)であれば、前記情報は、いずれも当該第1認識特徴の前記第1特徴状況である。
前記第1特徴状況と前記第2特徴状況との差異の状況を確認するステップS82。
前記第1特徴状況と前記第2特徴状況との差異の状況を比較することで、前記第1認識特徴との差異がある前記第2認識特徴を複数特定することができ、前記第2認識特徴の座標と前記第1認識特徴の座標との間のデータ上の差、例えば、前記第2認識特徴の座標と前記第1認識特徴の座標とのX軸における2単位長さあたりの差異、前記第2認識特徴のX軸方向における偏向の角度が前記第1認識特徴のX軸方向における偏向の角度よりも10度小さいなどの差異を知ることができ、上記差異の状況は、上記例示の場合を含み得ると理解できる。
前記差異の状況を特定することにより、前記第1認識特徴との差異がある前記第2認識特徴の一部が、前記第1認識特徴がどのように変化したかによって形成することが分かり、例えば、前記差異の状況は、前記第2認識特徴の座標と前記第1認識特徴の座標との間に、X軸上で2単位の長さの差を含んでいれば、前記第2認識特徴は、前記第1認識特徴がX軸方向に2単位の長さだけシフトして形成されていることが分かる。
前記差異の状況に基づいて、前記姿勢認識情報を生成するステップS83。
異なる前記差異の状況には、異なる前記姿勢認識情報が対応付けられていると理解できる。
前記メモリ40には、異なる前記複数の前記差異状況と、異なる前記複数の前記差異状況に対応する前記姿勢認識情報とが記録された第2データベースが記憶されており、前記プロセッサ30は、前記差異状況を特定すると、前記メモリ40から前記メモリ40における前記第2データベースを読み出して、前記差異状況に対応する前記姿勢認識情報を生成していることが理解される。
前記動作画像において、方位モデルにおける前記携帯器材10の存在位置を特定するステップS35。
前記方位モデルは、前記映像採集機20を原点とし、予め定められた方向を基に作成された2次元座標系であってもよく、前記方位モデルの作成は、前記携帯器材10における特徴に依存しないことが理解される。
一例として、図1に示すように、前記方位モデルは、映像採集機20を原点Oとし、映像採集機20の正面が向く方向をy軸とし、y軸に垂直する方向をx軸とした2次元座標系であってよい。
前記方位モデルにおける前記携帯器材10の位置を認識する具体的な方法としては、前記動作画像におけるある前記第2認識特徴又は前記第2モデリング特徴を認識して、当該前記第2認識特徴又は前記第2モデリング特徴の前記方位モデルにおける座標を特定し、前記携帯器材10の存在位置を座標により識別する方法が理解できる。
一例として、前記方位モデルは、映像採集機20を原点Oとし、映像採集機20の正面が向く方向をy軸とし、y軸に垂直する方向をx軸とした2次元座標系であってよく、前記方位モデルにおいて前記方位指示部14に対応する前記第2モデリング特徴を認識し、当該第2モデリング特徴の前記方位モデルにおける座標を特定することにより、前記携帯器材10の存在位置を特定するようにしてもよい。
前記方位モデルにおける前記携帯器材10の位置に基づき、位置認識情報を生成するステップS36。
前記携帯器材10が異なる位置に対して、前記位置識別情報が複数対応していることが理解できる。
一例を挙げると、前記メモリ40には、複数の異なる前記第2モデリング特徴の前記方位モデルにおける座標と、異なる座標に対応する前記位置識別情報とが記録された第3データベースが記憶されており、前記プロセッサ30は、前記第2モデリング特徴の座標を特定すると、前記第3データベースを前記メモリ40から読み出して、座標に対応する前記位置識別情報を生成する。
前記位置認識情報と前記姿勢認識情報とに基づいて、ユーザのリアルタイムの姿勢を特定するステップS37。
ユーザは、異なる姿勢とした場合に、前記携帯器材10を置く位置が異なるとともに、ユーザの付勢力によって前記携帯器材10の形状、偏向角度、偏向方向等も異なり、前記位置認識情報と前記姿勢認識情報を結合して解析することで、ユーザの前記リアルタイムの姿勢をより正確に判定できることが理解できる。
異なる前記リアルタイムの姿勢には、異なる前記姿勢認識情報と、異なる前記位置認識情報とが対応付けられていることが理解できる。
例を挙げて説明すると、前記メモリ40には、複数の異なる前記姿勢認識情報と複数の異なる前記位置認識情報とが結合された、異なる前記リアルタイムの姿勢が対応づけられた第4データベースが記憶されており、前記プロセッサ30は、前記姿勢認識情報と前記位置認識情報とが特定されると、前記記憶領域から前記第4データベースを読み出し、前記姿勢認識情報と、前記位置認識情報とが結合された、対応する前記リアルタイムの姿勢を生成してもよい。
本願実施例に開示された姿勢認識システムの模式図である図9を参照する。本開示の実施例に係る姿勢認識システム300は、認識モジュール50と、取得モジュール60と、モデリングモジュール70と、処理モジュール80と、特定モジュール90と、を含んでもよい。
認識モジュール50は、基準画像における複数の第1モデリング特徴、複数の第1認識特徴、および、動作画像における複数の第2モデリング特徴、複数の第2認識特徴を認識するためのものである。
取得モジュール60は、動作画像を取得するためのものである。
ある実施例において、取得モジュール60は、さらに基準画像を取得するためのものである。
前記モデリングモジュール70は、前記基準モデルと前記比較モデルとを構築する。
前記基準モデルは、前記基準座標系であってもよく、前記基準座標系の前記基準原点及び複数の座標軸は、複数の前記第1モデリング特徴の解析によって得ることが理解される。
前記比較モデルは、前記比較座標系であってもよく、前記比較座標系の前記比較原点と複数の座標軸は、複数の前記第2モデリング特徴の分析により得ることが理解される。
前記モデリングモジュール70は、前記方位モデルの構築にも用いられる。
前記方位モデルは、映像採取器20を原点とし、予め定められた方向を基に構築された2次元座標系であることが理解できる。
処理モジュール80は、基準モデルにおいて、第2認識特徴に係る第2特徴状況を特定し、当該第2特徴状況に基づいて前記姿勢認識情報を生成する。
前記処理モジュール80は、前記方位モデルにおいて、前記携帯器材10が存在する位置に基づいて前記位置認識情報を生成するのにも用いられる。
前記特定モジュール90は、前記姿勢認識情報と前記位置認識情報とに基づいて、前記リアルタイムの姿勢を特定する。
異なる前記リアルタイムの姿勢には、異なる前記姿勢認識情報と、異なる前記位置認識情報とが対応付けられていることが理解できる。
図9に記載の監視警告システムでは、前記動作画像の解析により、前記携帯器材10の具体的な態様を特定することで、ユーザの前記リアルタイムの姿勢を特定することができ、前記姿勢認識機器100の使い勝手が向上する。詳細は上述した姿勢認識方法の具体的な実施例を参照してもよく、ここでは詳細な説明は省略する。
同一構想に基づき、本願実施例による記憶媒体は、コンピュータ命令が記憶された記憶媒体であって、コンピュータ命令が姿勢認識機器100上で実行した場合に、姿勢認識機器100に本願実施例による姿勢認識方法を実行させる。
本発明は、上述の例示的な実施形態の詳細に限定されず、本発明の精神または本質的な特徴から逸脱することなく、他の特定の形態で実施できることは当業者には明らかである。したがって、本発明における上記の各実施形態は、本発明を制限するものではなく、例示と見なされるべきであり、本発明の範囲は、上記の説明により限定されることではなく、特許請求の範囲によって定義される。なお、特許請求の同等要素の意味および範囲におけるすべての変更は、本発明に含まれる。
姿勢認識機器 100
インタラクティブシステム 200
姿勢認識システム 300
携帯器材 10
モデリング実体特徴 11
認識実体特徴 12
取手部 13
方位指示部 14
映像採集機 20
プロセッサ 30
メモリ 40
認識モジュール 50
取得モジュール 60
モデリングモジュール 70
処理モジュール 80
特定モジュール 90

Claims (10)

  1. ユーザが携帯器材を操作する時の姿勢を認識する姿勢認識方法であって、
    基準画像に基づいて基準モデルを生成するステップと、
    ユーザと前記携帯器材とを撮像した画像であって、第2認識特徴を含む動作画像を取得するステップと、
    前記基準モデルにおける前記第2認識特徴の大きさ、形状、存在位置を含む第2特徴状況を判定し、姿勢認識情報を生成するステップと、を備える姿勢認識方法。
  2. 前記基準モデルは、基準座標系であり、
    前記基準画像は、前記携帯器材上のモデリング実体特徴に対応する第1モデリング特徴を備え、
    前記基準画像に基づいて基準モデルを生成するステップは、
    前記基準画像に基準原点を特定するステップと、
    前記基準原点と前記第1モデリング特徴に基づいて前記基準座標系を構築するステップと、を含むことを特徴とする請求項1に記載の姿勢認識方法。
  3. 第2特徴状況が前記基準モデルにおける前記第2認識特徴を特定して、姿勢認識情報を生成するステップは、
    前記動作画像に基づいて比較モデルを作成するステップと、
    前記基準モデルと前記比較モデルとを重ね合わせるステップと、
    前記第2認識特徴の形状、大きさ、および前記基準原点との位置関係等を含み、前記第2特徴状況が前記基準モデルにおける前記第2認識特徴を特定するステップと、
    前記第2特徴状況に基づいて姿勢認識情報を作成するステップと、を備えることを特徴とする請求項2に記載の姿勢認識方法。
  4. 前記動作画像は、前記モデリング実体特徴に対応する第2モデリング特徴を備え、
    前記比較モデルは、比較座標系であり、
    前記動作画像に基づいて比較モデルを生成するステップは、
    前記動作画像で比較原点を特定するステップと、
    前記比較原点と前記第2モデリング特徴に基づいて前記比較座標系を作成するステップと、を備えることを特徴とする請求項3に記載の姿勢認識方法。
  5. 前記基準モデルと前記比較モデルとを重ね合わせるステップは、
    前記基準原点と前記比較原点とが重なり合うように、基準座標系と対比座標系とを重ね合わせるステップを備えることを特徴とする請求項4に記載の姿勢認識方法。
  6. 前記基準画像は、認識実体特徴に対応する第1認識特徴をさらに備え、
    前記第2特徴状況に基づいて前記姿勢認識情報を生成するステップは、
    前記第1認識特徴の形状、大きさ、及び基準原点との位置関係を含む前記第1認識特徴の第1特徴状況を特定するステップと、
    前記第1特徴状況と前記第2特徴状況との差異状況を確認するステップと、および
    前記差異状況に基づいて、前記姿勢認識情報を生成するステップと、を備えることを特徴とする請求項3に記載の姿勢認識方法。
  7. 前記動作画像に基づいて、方位モデルにおける前記携帯器材の位置を確認して、位置認識情報を生成するステップをさらに備える請求項1に記載の姿勢認識方法。
  8. 位置認識情報と前記姿勢認識情報とに基づいて、ユーザのリアルタイムの姿勢を特定するステップをさらに備える請求項1に記載の姿勢認識方法。
  9. 認識実体特徴とモデリング実体特徴を備えた携帯器材と、
    ユーザが前記携帯器材を操作する時に動作画像を採取する映像採取器と、
    コンピュータプログラムを記憶するメモリと、
    前記メモリに記憶された前記コンピュータプログラムを実行するプロセッサであって、前記コンピュータプログラムが実行される際、請求項1から8のいずれか1項に記載の姿勢認識方法を実行するプロセッサと、を備える姿勢認識機器。
  10. コンピュータ命令が姿勢認識装置で実行される時、請求項1から8のいずれかに記載の姿勢認識方法を前記姿勢認識機器に実行させる前記コンピュータ命令を含むことを特徴とする記憶媒体。
JP2022129892A 2021-10-31 2022-08-17 姿勢認識方法、姿勢認識機器及び記憶媒体 Active JP7402941B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111278740.8A CN116092174A (zh) 2021-10-31 2021-10-31 姿势识别方法、设备及存储介质
CN202111278740.8 2021-10-31

Publications (2)

Publication Number Publication Date
JP2023067744A true JP2023067744A (ja) 2023-05-16
JP7402941B2 JP7402941B2 (ja) 2023-12-21

Family

ID=86144789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022129892A Active JP7402941B2 (ja) 2021-10-31 2022-08-17 姿勢認識方法、姿勢認識機器及び記憶媒体

Country Status (3)

Country Link
US (1) US20230133168A1 (ja)
JP (1) JP7402941B2 (ja)
CN (1) CN116092174A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100014198A (ko) * 2008-07-31 2010-02-10 (주)지아트 증강 현실 환경에서의 3차원 모델 객체 저작 방법 및 시스템
US20130215148A1 (en) * 2010-07-19 2013-08-22 Smart Technologies Ulc Interactive input system having a 3d input space
JP2014095557A (ja) * 2012-11-07 2014-05-22 Shimadzu Corp モーショントラッカ装置
WO2021192589A1 (ja) * 2020-03-24 2021-09-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100014198A (ko) * 2008-07-31 2010-02-10 (주)지아트 증강 현실 환경에서의 3차원 모델 객체 저작 방법 및 시스템
US20130215148A1 (en) * 2010-07-19 2013-08-22 Smart Technologies Ulc Interactive input system having a 3d input space
JP2014095557A (ja) * 2012-11-07 2014-05-22 Shimadzu Corp モーショントラッカ装置
WO2021192589A1 (ja) * 2020-03-24 2021-09-30 ソニーグループ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに拡張現実感システム

Also Published As

Publication number Publication date
US20230133168A1 (en) 2023-05-04
CN116092174A (zh) 2023-05-09
JP7402941B2 (ja) 2023-12-21

Similar Documents

Publication Publication Date Title
CN111989537B (zh) 用于在无约束环境中检测人类视线和手势的系统和方法
KR101775591B1 (ko) 데이터베이스 생성의 목적을 위한 대화식 및 자동 3-d 오브젝트 스캐닝 방법
KR100869447B1 (ko) 3차원 모델링 없이 이미지 처리에 의해 타겟을 지시하는 장치 및 방법
US9161027B2 (en) Method and apparatus for providing camera calibration
JP4278979B2 (ja) ジェスチャーに基づいた入力及びターゲット指示のための単一カメラシステム
US9201499B1 (en) Object tracking in a 3-dimensional environment
CN110443853B (zh) 基于双目摄像头的标定方法、装置、终端设备及存储介质
JP2014512530A (ja) 座標位置決め装置
US9874977B1 (en) Gesture based virtual devices
JP2010026818A (ja) 画像処理プログラム、画像処理装置及び画像処理方法
US9304582B1 (en) Object-based color detection and correction
US9344623B2 (en) Methods and systems for providing functionality of an interface to control orientations of a camera on a device
US9390500B1 (en) Pointing finger detection
CN110544278B (zh) 刚体运动捕捉方法及装置、agv位姿捕捉系统
CN111736709A (zh) Ar眼镜控制方法、设备、存储介质及装置
CN109800645A (zh) 一种动作捕捉系统及其方法
JP2023067744A (ja) 姿勢認識方法、姿勢認識機器及び記憶媒体
TWI836498B (zh) 用於配件配對的方法、系統以及記錄介質
CN111192350A (zh) 一种基于5g通信vr头盔的动作捕捉系统及方法
TWI785871B (zh) 姿勢識別方法、設備及存儲介質
KR100601001B1 (ko) 자이로와 초음파를 이용한 컴퓨터 입력장치
US9551922B1 (en) Foreground analysis on parametric background surfaces
WO2022172471A1 (ja) 支援システム、画像処理装置、支援方法およびプログラム
US20200058135A1 (en) System and method of object positioning in space for virtual reality
EP4246282A1 (en) Information processing apparatus, information processing system, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7402941

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150