JP7235826B2 - 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法 - Google Patents

人体の方向を検出する検出装置、および、人体の方向を検出する検出方法 Download PDF

Info

Publication number
JP7235826B2
JP7235826B2 JP2021170311A JP2021170311A JP7235826B2 JP 7235826 B2 JP7235826 B2 JP 7235826B2 JP 2021170311 A JP2021170311 A JP 2021170311A JP 2021170311 A JP2021170311 A JP 2021170311A JP 7235826 B2 JP7235826 B2 JP 7235826B2
Authority
JP
Japan
Prior art keywords
human body
orientation
probability
image
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021170311A
Other languages
English (en)
Other versions
JP2022170649A (ja
Inventor
▲彦▼宇 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of JP2022170649A publication Critical patent/JP2022170649A/ja
Application granted granted Critical
Publication of JP7235826B2 publication Critical patent/JP7235826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、人体の方向の検出装置、および、人体の方向の検出方法に関するものであって、特に、スマート全身鏡に適用する人体の方向の検出装置、および、人体の方向の検出方法に関するものである。
スマート全身鏡は、即時のバーチャル相互作用(real-time virtual interaction)を用いて、ユーザーが、鏡の前で、バーチャルで服を選択できるものである。スマート全身鏡上のカメラがユーザーの存在を検出するとき、全身鏡のディスプレイは、即座に、イメージを捕捉することができる。ディスプレイ時、スマート全身鏡は、ユーザーにより選択されたバーチャル衣服を、ディスプレイスクリーン中のユーザーに適用する。
家庭用スマート全身鏡は、オンラインショッピングの便利性と実店舗での買い物体験を併せたものである。一方、ショッピングモールでも、スマート全身鏡、広告掲示板、および、対話型装置を設置して、ユーザーに、製品の体験や、関連サービスを受けることができるようにしている。たとえば、ユーザーは、スマート全身鏡を用いて、選択した衣服を着用した状態を見ることができる。
しかし、ユーザーが、スマート全身鏡、あるいは、その他の類似の対話型装置を用いるとき、身体は横向けであるが、顔は鏡の正面を向いて、身体上の衣類の様子を見ることがよくある。この時、スマート全身鏡が、人体の方向を判断する機能を有さない場合、不合理な視覚効果をもたらす。さらに、スマート全身鏡が、ユーザーの顔の検出を、人体の方向の判断とする場合、スマート全身鏡は、ユーザーの顔により判断を誤らせて、人体も正面であると判断し、バーチャル衣服は、まだ、正面の様子を表す。この状況下で、視覚効果は不合理になる。
よって、ユーザーの身体の方向をどのように判断するかが、この分野で解決される問題の一つになっている。
本発明は、人体の方向を検出する検出装置、および、人体の方向を検出する検出方法を提供する。
本発明の一特徴にしたがって、本発明は、人体の方向を検出する検出装置を提供する。検出装置は、カメラ、および、処理装置を有する。カメラは、人体イメージを捕捉する。処理装置は、人体イメージ中の人頭の輪郭イメージを切り取って、入力イメージを得るとともに、入力イメージを分類器に入力する。分類器は、入力イメージの複数の人体方向確率を出力する。処理装置は、最大の人体方向確率を見つけ出すとともに、最大の人体方向確率が、正確なスレショルドより大きいか否か判断する。最大の人体方向確率が、正確なスレショルドより大きいとき、処理装置は、最大の人体方向確率に対応する人体の方向を、判断された人体の方向であると見なす。
本発明の一特徴にしたがって、本発明は、人体の方向を検出する検出方法を提供する。人体の方向を検出する検出方法は、カメラで、人体イメージを捕捉する工程と、人体イメージ中の人頭の輪郭イメージを切り取って、入力イメージを得るとともに、入力イメージを分類器に入力する工程と、分類器が、入力イメージの複数の人体方向確率を出力する工程と、最大の人体方向確率を見つけるとともに、最大の人体方向確率が、正確なスレショルドより高いか否か判断する工程と、を有し、高い場合、最大の人体方向確率に対応する人体の方向は、判断された人体の方向であると見なされる。
本発明の実施形態に示される人体の方向を検出する検出装置、および、人体の方向を検出する検出方法は、人体の方向を正確に判断することができる。本発明で記述される人体の方向の判断は、たとえば、人体の正面、左側、右側、あるいは、背面であり、よって、スマート全身鏡は、さらに正確に、バーチャル衣服を人体イメージに適用することができる。ユーザーが、体を横に向きを変え、ユーザーの頭部を正面にする、つまり、スマート全身鏡の方を向いても、ユーザーは、スマート全身鏡中で試着結果を合理的に見ることができ、これにより、ユーザー体験を向上させる。さらに、本発明の実施形態で示される人体の方向を検出する検出装置、および、人体の方向を検出する検出方法は、さらに、スマート全身鏡により出力されるデータを別のサーバに送信して、スマート全身鏡の使用率を計算する、あるいは、データを分析として用いて、別の目的を達成することができる。
本発明の上述の、およびその他の長所と特徴を得る方式を記述するため、前述の簡単に描写された原理は、更に具体的に、図面で示される具体的な実施形態により説明する。これらの図面は、本発明の例を示すものであり、本発明を限定するものではないことを理解すべきである。本発明の原理は、図面の描写、および、付加された特徴と詳細の解釈によって説明される。
本発明の一実施例による人体の方向を検出する検出装置のブロック図である。 本発明の一実施例によるスマート全身鏡に適用される人体の方向を検出する検出装置を示す図である。 本発明の一実施例による人体の方向を検出する検出方法のブロック図(その1)である。 本発明の一実施例による人体の方向を検出する検出方法のブロック図(その2)である。 本発明の一実施例による入力イメージを得ることを示す図である。 本発明の一実施例による人体イメージを示す図である。 本発明の一実施例による分類器操作方法を説明する図である。 本発明の一実施例による骨格特徴点を示す図である。 本発明の一実施例による骨格特徴点により、人体の方向を判断する方法を説明する図(その1)である。 本発明の一実施例による骨格特徴点により、人体の方向を判断する方法を説明する図(その2)である。
本明細書で記述されるのは、本発明を実施する最適な方式であり、目的は、本発明の精神を説明することであり、本発明の範囲を限定するものではなく、本発明は、特許請求の範囲をもって結論とする。
本発明は、特定の実施形態に関連するとともに、図面を参照しながら記述されるが、本発明はそれらに制限されず、且つ、請求項だけによって制限される。さらに理解できることは、ここで用いられる用語“有する”“含む”等は、特定の技術特徴、数値、工程、操作、素子、および/または、コンポーネンツの存在を表示しているが、さらに多くのその他の特徴、数値、工程、操作、素子、コンポーネンツ、および/または、それらの群の存在や追加を排除するものではない。
請求項の範囲中で素子を修飾する、たとえば、“第一”、“第二”、“第三”等の用語は、それ自身は何ら優先権、優先度、または、各素子間の順序、または、方法が実行される動作の順序を暗示するものではなく、単なる標識として用いて、同じ名称を有する (異なる順序用語を有する)異なる素子を区分する。
図1、図2および、図3Aと図3Bを参照する。図1は、本発明の一実施例による人体の方向を検出する検出装置100のブロック図である。図2は、本発明の一実施例によるスマート全身鏡200に適用される人体の方向を検出する検出装置100を示す図である。図3Aは、本発明の一実施例による人体の方向を検出する検出方法300のブロック図である。図3Bは、本発明の一実施例による人体の方向を検出する検出方法350のブロック図である。
一実施形態において、人体の方向を検出する検出装置100は、スマート全身鏡200に適し、人体の方向を検出する検出装置100は、カメラ10、および、処理装置20を有する。一実施形態において、カメラ10は、少なくとも一つの電荷結合素子 (CCD)、あるいは、相補型MOS(complementary metal-oxide semiconductor、CMOS)センサーで構成される。
一実施形態において、カメラ10は、スマート全身鏡200上に設置されて、スマート全身鏡200の前側のイメージを捕捉する。一実施形態において、カメラ10は、スマート全身鏡200のディスプレイ40の周辺に設置され、たとえば、カメラ10は、ディスプレイ40の上右隅、中間の真上、あるいは、上左隅に設置される。
一実施形態において、処理装置20は、プロセッサ、および/または、グラフィックスプロセッシングユニット (GPU)を有する。
一実施形態において、処理装置20は、マイクロコンロトーラー、マイクロプロセッサ、デジタルシグナルプロセッサ、特定用途向け集積回路 (ASIC)、あるいは、ロジック回路により実施される。
一実施形態において、処理装置20は、ラズベリーPi(Raspberry)により実施される。ラズベリーPiは、小型コンピュータとしてみなされる。ラズベリーPiは、廉価で、取得しやすく、携帯が容易、装着が簡単、安定した操作であり、且つ、その他の周辺装置に接続することができるという特性がある。よって、ラズベリーPiは、スマート全身鏡200にインストールすることができる。一実施形態において、ラズベリーPiは保存空間を有する。
一実施形態において、ラズベリーPiは、人体の方向を検出する検出方法300、および、人体の方向を検出する検出方法350における全操作を実行することができ、全操作は、スマート全身鏡200の局部端で実行される。
一実施形態において、計算量が大きく、且つ、ラズベリーPiがすぐに全計算を処理できない時、ラズベリーPiは、サーバにデータを送信することができる。このサーバは、よい計算パフォーマンスを有するリモートサーバである。このサーバは計算し、且つ、計算結果をラズベリーPiに返す。
一実施形態において、人体の方向を検出する検出装置100はさらに、ストレージデバイス30を有する。ストレージデバイス30は、リードオンリメモリ、フラッシュメモリ、フロッピーディスク、ハードディスク、光学ディスク、フラッシュドライブ、テープ、ネットワークによりアクセスされるデータベース、あるいは、当業者が容易に考え出すことができる同じ機能を有するストレージ媒体として実施される。
一実施形態において、処理装置20は、スマート全身鏡200の局部端で、人体の方向を検出する検出方法300、あるいは、人体の方向を検出する検出方法350を実行し、得られた結果(つまり、人体の方向の判断、判断された人体の方向、たとえば、身体の正面、身体の左側、身体の右側、および、身体の背面)をサーバに返す。サーバは、受け取った結果を、その他の応用、たとえば、データ分析に用いる。
一実施形態において、図2に示されるように、ユーザーUSRが、スマート全身鏡200の前方を歩くとき、カメラ10は、ユーザーUSRを捕捉することができ、スマート全身鏡200のディスプレイ40は、タッチスクリーンである。ユーザーUSRは、タッチスクリーンにより、衣服を選択して着用するとともに、処理装置20は、既知の方法、たとえば、拡張現実 (Augmented Reality、AR)を用い、ディスプレイ40上で、バーチャル衣服がユーザーUSRに適用されるバーチャルリアリティイメージUSR’を表示することができる。拡張現実は、カメラ10により捕捉されるイメージの位置と角度を計算し、且つ、イメージ分析技術を加えた技術であり、よって、ディスプレイ40上のバーチャル衣服は、実際のシーン(たとえば、ユーザーUSR)と結合されて、バーチャル衣服がユーザーUSRに適用されるバーチャルリアリティイメージUSR’が、ディスプレイ40上で表示される。たとえば、ユーザーUSRは、実際にズボンを着用した状態で、ディスプレイ40のインターフェースにより、着用したいスカートを選択する。拡張現実技術により、ディスプレイ40は、バーチャルスカートを着用するユーザーイメージUSR’を表示することができる。しかし、これは単なる例であり、この案は、拡張現実方法により実施されることに制限されない。
一実施形態において、ユーザーUSRは、多種の方式で、着用した衣類を選択することができ、たとえば、衣類タグのQRコード(登録商標)をスキャンする、タッチスクリーン、あるいは、その他の物理、または、バーチャル入力インターフェースから選択する。
図3Aを参照すると、工程305において、カメラ10は人体イメージを捕捉する。工程315において、処理装置20は、人体イメージIMG1中の人頭の輪郭イメージを切り取って、入力イメージIMG2を得るとともに、入力イメージIMG2を分類器に入力し、分類器は、入力イメージIMG2の複数の人体方向確率を出力する。工程325において、処理装置20は、これらの人体方向確率の最大確率を見つけるとともに、これらの人体方向確率の最大確率が、正確なスレショルドより高いか否か判断する。これらの人体方向確率の最大確率が、正確なスレショルドより大きいとき、処理装置20は、最大の人体方向確率に対応する人体の方向を、判断された人体の方向としてみなす。
以下はさらに、図3Bを用いて、本発明の人体の方向を検出する検出方法350を説明する。
工程310において、カメラ10は、スマート全身鏡200前方の初期イメージIMG0を捕捉する。たとえば、図2に示されるように、カメラ10は、スマート全身鏡200前方のユーザーUSRを捕捉し、捕捉したユーザーイメージは、初期イメージであると見なされる。しかし、これは単なる例である。本発明は、スマート全身鏡200上にカメラ10を設置することに制限されず、スマート全身鏡200前方の初期イメージIMG0を捕捉することにも制限されない。カメラ10は、一人体イメージを捕捉することだけを必要とし、本発明の人体の方向を検出する検出方法350を適用することができる。
工程320において、処理装置20は、初期イメージIMG0中の人体イメージIMG1をトリミング(crop)し、人体イメージIMG1中の人頭の輪郭イメージを切り取るとともに、入力イメージIMG2を得る。その後、入力イメージIMG2を分類器に入力し、分類器は、この入力イメージIMG2の複数の人体方向確率、および、複数の骨格特徴点を出力する。
図4、および、図5を参照する。図4は、本発明の一実施例による入力イメージIMG2を得ることを示す図である。図5は、本発明の一実施例による人体イメージIMG3~IMG4を示す図である。
一実施形態において、カメラ10の設置後、処理装置20は、顔、および、頭部形状(頭部の輪郭)で、カメラ10により捕捉される初期イメージIMG0中に、ユーザーイメージUSR’があるか否か検出する。ある場合、処理装置20は、人体イメージIMG1 (人体イメージIMG1は、ユーザーイメージUSR’である)をトリミング(crop)する。
一実施形態において、処理装置20は、別の訓練された畳み込みニューラルネットワーク(CNN)、特徴点アルゴリズム、あるいは、その他の既知の顔認識方法を用いて、顔、および/または、頭部形状(頭部の輪郭)を見つけることができる。
一般的に言えば、ユーザーUSRがスマート全身鏡200を見るとき、横向きで立っていても、鏡の方向を見る。図5の人体イメージIMG3、および、人体イメージIMG4で示されるように、人体イメージIMG3、および、人体イメージIMG4の顔は正面を向く。しかし、人体イメージIMG3の人体の方向はイメージの右側方向であり、人体イメージIMG4の人体の方向はイメージの左側方向である。人体の方向が、人の顔のイメージに基づいて判断される場合、これらの環境下で、人体の方向の判断は不正確である。
よって、図4において、処理装置20は、人体イメージIMG1中の人頭の輪郭イメージ (あるいは、顔のイメージ)を切り取って、入力イメージIMG2を得る。イメージIMG2を入力することにより、人体の方向を判断する効果を達成して、処理装置20が、人体の方向を判断するとき、頭部輪郭イメージ (あるいは、顔のイメージ)により影響されるのを防止することができる。
いくつかの例において、処理装置20はまず、人頭の輪郭のイメージ (あるいは、人の顔のイメージ)を構成し、その後、イメージ中の人頭 (あるいは、人の顔のイメージ)の切り取りを実行する。
いくつかの例において、処理装置20は、人頭の輪郭のイメージをトリミングする前、まず、人の顔のイメージの全部、あるいは、一部にしたがって、人体の方向が背面であるか否か判断する。処理装置20は、人体イメージ中の人頭の輪郭イメージ中に、人の顔がないと判断するとともに、その後、人体の背面であると判断する。
次に、処理装置20は、入力イメージIMG2を分類器に入力し、分類器は、入力イメージの複数の人体方向確率、および、複数の骨格特徴点を出力する。
図6は、本発明の一実施例による分類器操作方法を説明する図である。
一実施形態において、図6に示されるように、分類器は、畳み込みニューラルネットワークにより実施される。畳み込みニューラルネットワークが訓練段階で、入力イメージIMG2を受信した後、層ごとの特徴値を引き出す。
一実施形態において、畳み込みニューラルネットワークの訓練段階期間中、人体方向確率、および、複数の骨格特徴点の認識精度は、複数の入力イメージに対して、別々に訓練される。処理装置20はまず、手動で表示されたイメージ、および、対応するイメージの実際の方向データと実際の特徴点位置データを、畳み込みニューラルネットワークに入力して、訓練を実行する。
その後、畳み込みニューラルネットワークは、全結合層 (FCL)で、複数の人体方向確率、および、複数の骨格特徴点(これらのパラメータは中空円で示される)を出力する。処理装置20は、これらの人体方向確率、および、実際の方向データから回帰損失を計算するとともに、骨格特徴点、および、複数の実際の特徴点位置データから、ユークリッド距離損失を計算する。処理装置20は、その後、回帰損失とユークリッド距離損失を足して、全損を出し、誤差逆伝搬(back-propagation)方法を用いて、畳み込みニューラルネットワークのパラメータ、あるいは、重量を調整するとともに、それらを畳み込みニューラルネットワークに戻して、訓練を続けるので、全損は、徐々に、減少するとともに、一定値に達する。ユークリッド距離のアルゴリズムは:
Figure 0007235826000001
である。
CNNアーキテクチャの最終出力は、人体の各方向の確率、および、各骨格特徴点の座標であるので、ユークリッド距離が用いられて、二点間の距離を計算する。各骨格特徴点の座標は、距離アルゴリズムにより、実際の特徴点位置とどのくらいの誤差があるのか知ることができ、人体の各方向の確率と実際の方向の誤差が、ロジスティック回帰のアルゴリズムにより計算される。ロジスティック回帰アルゴリズムは:
Figure 0007235826000002
である。
ロジスティック回帰アルゴリズムに二個の“y”があり、一つは、CNNアーキテクチャ判断の確率であり、もう一つは実際の確率である。符号“m”は、方向(方向の数量)を表し、このロジスティック回帰アルゴリズム中の“m”は4である(四方向)。たとえば、モデルにより判断される各方向の確率は(0.64、0.03、0.32、0.1)であるが、実際の方向確率(実際の方向では、一方向だけある)は(1、0、0、0)であり、これらの値を算定式に代入する。第一方向において(m=1)、処理装置20は、二個の“y”に、0.64 と1を代入して計算する。その他の方向の計算は、類似性により推定することができる。
一実施形態において、これらの人体方向確率は、畳み込みニューラルネットワークにより出力される複数の特徴ベクトルに対応する。たとえば、身体正面の特徴ベクトル、左側身体の特徴ベクトル、右側身体の特徴ベクトル、および、身体背面の特徴ベクトルである。たとえば、畳み込み層は、複数の特徴ベクトルを出力し、各特徴ベクトルに、プール操作(pooling operation)を実行し、その後、特徴ベクトルスプライシング(splicing)を実行する。最後に、全結合層の活性化関数(softmax)操作により、複数の対応する特徴ベクトルの人体方向確率が得られる。
一実施形態において、人体の方向の確率は、それぞれ、人体の正面の確率 (たとえば、97%)、人体の左側の確率 (たとえば、1%)、人体の右側の確率 (たとえば、0%)、および、背面の確率 (たとえば、2%)である。処理装置20はまず、人体の方向の最大の確率 (すなわち、人体の正面の確率97%)を有する人を判断し、その後、対応する人体の方向 (すなわち、人体の正面の確率)、および、実際の方向データに基づいて、回帰損失を計算する。
図7は、本発明の一実施例による骨格特徴点を示す図である。
一実施形態において、骨格の実際の特徴点位置は、三組の座標のセットである。実際の特徴点位置は、手動で、入力イメージIMG2上で表示され、表示された座標は、順次、畳み込みニューラルネットワークに入力される。たとえば、図7に示されるように、実際の特徴点位置は、左から右に、順番に、左肩の実際の特徴点Aの座標、襟(胸)の実際の特徴点Bの座標、および、右肩の実際の特徴点Cの座標を入力する。表示方式は: {[105、142]、[131、195]、[270、144]}であり、実際の特徴点位置、および、入力イメージIMG2が畳み込みニューラルネットワークに入力されて、訓練を実行する。さらに、実際の方向データを入力して、畳み込みニューラルネットワークを訓練する以外に、実際の特徴点座標データも、一緒に、畳み込みニューラルネットワーク訓練に入力され、畳み込みニューラルネットワークが、さらに正確に、人体の方向を判断することができるようにする。
一実施形態において、処理装置20が、入力イメージIMG2を畳み込みニューラルネットワーク中に入力するとき、畳み込みニューラルネットワークにより出力される骨格特徴点も、同じ順番(たとえば、左から右)を有するとともに、左肩特徴点A’の座標、胸特徴点B’の座標、および、右肩特徴点C’の座標を出力する。一実施形態において、骨格特徴点は、左肩特徴点座標、右肩特徴点座標、および、胸特徴点座標を有する。
一実施形態において、全結合層FCL中で畳み込みニューラルネットワークにより出力される骨格特徴点はすでに、座標を有しているので、処理装置20は、骨格特徴点と実際の特徴点の位置データに基づいて、ユークリッド距離損失を計算することができる。
その後、処理装置20は、誤差逆伝搬方法を用いて、神経、重量、層数、および、その他のパラメータを調整し、その後、全損が全損スレショルドより小さくなるまで、畳み込みニューラルネットワークを訓練し、畳み込みニューラルネットワークはすでに訓練されていることを示す。全損が全損スレショルドより低いとき、畳み込みニューラルネットワークにより出力される複数の人体方向確率と複数の骨格特徴点、および、手動で表示される実際の方向データと実際の特徴点位置データ間の差異が小さいことを意味する。この時、畳み込みニューラルネットワークは、各種入力イメージ中の人体の方向を判断することができる。
一実施形態において、分類器は、ストレージデバイス30中に保存される畳み込みニューラルネットワークプログラムであり、処理装置20は、分類器を読み取り、および、実行する。
一実施形態において、処理装置20が、ラズベリーPiにより実施されるとき、分類器は、ラズベリーPiの保存空間中に保存される畳み込みニューラルネットワークプログラムになる。ラズベリーPi 中のプロセッサは、保存空間中の分類器を読み取り、それを実行することができる。
一実施形態において、分類器は、ハードウェア回路により実施される。
工程330において、処理装置20は、これらの人体方向確率の最大確率を見つけるとともに、これらの人体方向確率の最大確率が、正確なスレショルドより大きいか否か判断する。
これらの人体方向確率の最大確率が、正確なスレショルドより大きいとき、処理装置20は、これらの人体方向確率の最大確率に対応する人体の方向を、判断された人体の方向であると見なすとともに、工程340が実行される。
一実施形態において、人体の方向の確率は、人体の正面の確率 (たとえば、97%)、人体の左側の確率 (たとえば、1%)、人体の右側の確率 (たとえば、0%)、および、背面の確率 (たとえば、2%)であり、処理装置20は、これらの最大人体方向確率値 (つまり、人体の正面の確率97%)が、正確なスレショルドより大きいか否か判断する。正確なスレショルドが70%である場合、人体の正面の確率97%は、正確なスレショルドより高く、処理装置20は、人体の正面が判断された人体の方向であると見なすとともに、処理装置20は工程340を実行する。
一実施形態において、人体の方向が判断された後、スマート全身鏡は、さらに正確に、バーチャル衣服を人体イメージに適用することができ、ユーザーUSRが、異なる身体角度に対応するバーチャル衣服を着用するイメージを見ることができるようになる。
工程340において、処理装置20は、判断された人体の方向を出力する。別の実施形態において、処理装置20は、判断された人体の方向を計算して、ユーザーの使用習慣情報を得る。一実施形態において、処理装置20は、判断された人体の方向を、ラズベリーPi あるいは、サーバ、たとえば、拡張現実モジュール、バーチャル衣服展示モジュール等中に保存される別のモジュールに送信して、ユーザーが、バーチャル衣服を着用するイメージ、あるいは、異なる身体の角度に対応するバーチャル製品を着用するイメージを見ることができるようにする。一実施形態において、ディスプレイ40は、ディスプレイモジュール、および、拡張現実モジュールを有する。処理装置20が、判断された人体の方向を拡張現実モジュールに送信後、拡張現実モジュールは、判断された人体の方向にしたがって、カメラ10により捕捉される人体イメージとバーチャル製品を結合して、結合イメージを生成し、ディスプレイモジュールにより、ディスプレイ40上で、結合イメージを表示する。
一方、工程330において、これらの人体方向確率の最大確率が、正確なスレショルドより小さいと判断するとき、処理装置20は工程335を実行する。
一実施形態において、人体方向確率は、人体の正面の確率 (たとえば、64%)、人体の左側の確率 (たとえば、3%)、人体の右側の確率 (たとえば、32%)、および、人体の背面の確率 (たとえば、1%)であり、処理装置20は、最大これらの人体方向確率 (つまり、人体の正面の確率64%)が、正確なスレショルドより大きいか否か判断する。正確なスレショルドが70%である場合、人体の正面の確率64%は、正確なスレショルドより小さい。この状況は、分類器により出力される人体の方向は明らかな偏向がなく、骨格特徴点により、さらに詳細な判断を必要とすることを意味する。よって、処理装置20は、工程335を実行する。
言い換えると、人体の方向の最大確率が、正確なスレショルドより小さいとき、処理装置20は、骨格特徴点により判断された人体の方向が、確認された人体の方向であると見なす (工程335)。
工程335において、これらの骨格特徴点により、処理装置20により判断される人体の方向は、判断された人体の方向であると見なされる。
図8Aと図8Bは、本発明の一実施例による骨格特徴点による人体の方向を判断する方法を説明する図である。
図8A、および、図8B中の骨格特徴点は、分類器により出力され、順に、左肩特徴点A’の座標、胸特徴点B’の座標、および、右肩特徴点C’の座標である。
一実施形態において、処理装置20は、左肩特徴点A’と右肩特徴点C’間で、第一直線L1を接続するとともに、第一直線L1の中間部分を、円中心0とみなす。その後、円中心0、および、第一直線L1の半分の長さを半径とし(つまり、円中心0から左肩特徴点A’の長さは半径である)、円形が描かれる。さらに、第二直線L2は、胸特徴点B’と円中心0の座標を接続することにより形成されるとともに、第二直線L2と円中心0間の角度が計算される。二個の挟み角間で、90度より小さい一角度αが選択されて、人体の方向を判断する。別の実施形態において、処理装置20はさらに、二個の挟み角が角度スレショルドより小さいか否か判断し、角度スレショルドは、90度より小さく、且つ、0度より大きい角度である。一実施形態において、角度スレショルドは45度に設定される。二個の挟み角の一つが、45度より小さく、且つ、挟み角が、第一直線L1の左側にある場合、判断された人体の方向が左側であると判断する。二個の挟み角のひとつが、45度より小さく、且つ、この挟み角が、第一直線L1の右側に位置する場合、判断された人体の方向が右側であると判断するとともに、二個の挟み角がどちらも45度より大きい場合、判断された人体の方向が正面であると判断する。角度スレショルドは、たとえば、80度、45度、60度、あるいは、30度であり、且つ、必要に応じて設計される。
一実施形態において、処理装置20は、第一直線L1を水平位置に回転させるとともに、三個の座標を一緒に回転させて、第一直線L1の左、あるいは、右側上の挟み角 αの計算と確認を促進し、たとえば、挟み角 αが90度より小さいか否か計算する。
一実施形態において、処理装置20が、挟み角αが90度に等しいと判断するとき、判断された人体の方向が、人体の正面になると判断されることを意味する。
一実施形態において、図8Aに示されるように、処理装置20は、90度より小さい挟み角αが、第一直線L1の左側に位置すると判断し、人体の方向が左側身体であると判断する。別の実施形態において、処理装置20はさらに、90度より小さい挟み角αが、45度より小さいか否か判断する。挟み角αが、45度より小さく、且つ、挟み角が、第一直線L1の左側に位置する場合、判断された人体の方向が左側身体であると判断する。挟み角αが、45度より小さく、且つ、挟み角が、第一直線L1の右側に位置する場合、判断された人体の方向が右側身体であると判断する。挟み角 αが45度より大きい場合、判断された人体の方向が正面であると判断する。
一実施形態において、図8Aに示されるように、処理装置20が、90度より小さい挟み角α が、第一直線L1の左側に位置し、且つ、挟み角 α が、45度より小さいと判断し、判断された人体の方向が左側であると判断する。一実施形態において、左肩特徴点A’と胸特徴点B’の接続は、90度より小さい挟み角αに対応する辺縁であり、且つ、対応する辺縁は、円中心0の相対する左側に位置し、その後、処理装置20は、判断された人体の方向が左側身体であると判断する。
一実施形態において、図8Bに示されるように、処理装置20が、90度より小さい挟み角が、第一直線L1の右側に位置し、且つ、挟み角 α が、45度より小さいと判断する場合、処理装置20は、判断された人体の方向が右側身体であると判断する。一実施形態において、右肩特徴点C’と胸特徴点B’の接続は、90度より小さい挟み角αに対応する辺縁であり、且つ、対応する辺縁は、円中心0の相対する右側に位置し、処理装置20は、判断された人体の方向が右側身体であると判断する。
一実施形態において、処理装置20は、初期イメージIMG0から、人体イメージIMG1を引き出すとともに、人体イメージIMG1中の頭部輪郭イメージ中に、人の顔があるか否か判断する。処理装置20が、人体イメージIMG1中の頭部輪郭イメージに、顔がないと判断するとき、判断された人体の方向が、人体の背面であると判断する。
上述から分かるように、分類器はマルチタスクアーキテクチャであり、二つの件は、同じアーキテクチャ、たとえば、畳み込みニューラルネットワークアーキテクチャで完成され、大幅に、処理装置20により用いられるリソース (たとえば、ラズベリーPiで実施される)を減少させることができる。人体が、明確な横向け位置にある時、畳み込みニューラルネットワークは、明確な(正確なスレショルドより大きい)人体方向確率を出力することができるとともに、この人体確率に対応する人体の方向は、判断された人体の方向であると見なされる。しかし、人体が、不明瞭な横向け位置にある時、畳み込みニューラルネットワークにより出力される人体の方向の全ての確率は、正確なスレショルドより高くない。この場合、人体の方向を検出する検出装置100は、肩、および、胸の位置により、骨格特徴点を用いて、さらに正確に、挟み角 α を計算するとともに、挟み角 αの位置により、判断された人体の方向を判断する。
本発明の実施形態で示される人体の方向を検出する検出装置、および、人体の方向を検出する検出方法は、正確に、人体の方向を判断することができる。本発明で記述される人体の方向の判断は、人体の正面、左側、右側、あるいは、背面であり、よって、スマート全身鏡は、さらに正確に、バーチャル衣服を人体イメージに適用することができる。ユーザーが、横に向きを変えて、ユーザーの頭部を正面にしても、つまり、スマート全身鏡の方を向いても、ユーザーは、スマート全身鏡で、試着結果を合理的に見ることができ、これにより、良いユーザー体験が達成される。さらに、本発明の実施形態に示される人体の方向を検出する検出装置、および、人体の方向を検出する検出方法はさらに、スマート全身鏡により出力されるデータを別のサーバに送信して、スマート全身鏡の使用率を計算する、あるいは、データを分析として用いて、別の目的を達成することができる。
本発明では好ましい実施例を前述の通り開示したが、これらは決して本発明に限定するものではなく、当該技術を熟知する者なら誰でも、本発明の思想を脱しない範囲内で各種の変形を加えることができる。
100 人体の方向を検出する検出装置
10 カメラ
20 処理装置
30 ストレージデバイス
40 ディスプレイ
USR ユーザー
300 人体の方向を検出する検出方法
305~325、310~340 工程
IMG0 初期イメージ
USR’ ユーザーイメージ
IMG1、IMG3、IMG4 人体イメージ
IMG2 入力イメージ
FCL 全結合層
A 左肩の実際の特徴点
B 襟(胸)の実際の特徴点
C 右肩の実際の特徴点
A’左肩特徴点
B’胸特徴点
C’右肩特徴点
L1 第一直線
L2 第二直線
α 挟み角
0 円中心

Claims (5)

  1. 人体の方向を検出する検出方法であって、
    カメラを用いて、人体イメージを捕捉する工程と、
    前記人体イメージ中の人頭の輪郭イメージを切り取って、入力イメージを得るとともに、前記入力イメージを分類器に入力し、前記分類器が、前記入力イメージの複数の人体方向確率を出力する工程と、
    最大の人体方向確率を見つけるとともに、前記最大の人体方向確率が、正確なスレショルドより大きいか否か判断する工程、および、
    前記最大の人体方向確率が、前記正確なスレショルドより大きいとき、前記最大の人体方向確率に対応する前記人体の方向が、判断された人体の方向であると見なす工程、を有し、
    前記分類器は、前記入力イメージの複数の骨格特徴点を出力し、
    前記最大の人体方向確率が、前記正確なスレショルドより小さいとき、前記骨格特徴点により判断された前記人体の方向を、前記判断された人体の方向であると見なすことを特徴とする人体の方向を検出する検出方法。
  2. 前記分類器は、畳み込みニューラルネットワーク (CNN)により実行され、
    前記畳み込みニューラルネットワークが、訓練段階で、前記入力イメージを受信した後、前記畳み込みニューラルネットワークは、全結合層で、前記人体方向確率、および、骨格特徴点を出力し、前記最大の人体方向確率、および、実際の方向データに対応する前記人体の方向で、回帰損失を計算するとともに、前記骨格特徴点、および、複数の実際の特徴点位置データで、ユークリッド距離損失を計算し、その後、前記回帰損失と前記ユークリッド距離損失を加算して、全損を得るとともに、誤差逆伝搬方法を用いて、前記畳み込みニューラルネットワークのパラメータを調整して、前記畳み込みニューラルネットワークを再訓練して、各訓練後、前記計算された全損が小さくなり、
    前記人体方向確率は、前記畳み込みニューラルネットワークにより出力される複数の特徴ベクトルに対応することを特徴とする請求項1に記載の人体の方向を検出する検出方法。
  3. 記人体方向確率は、それぞれ、人体の正面の確率、人体の左側の確率、人体の右側の確率、および、人体の背面の確率であり、前記骨格特徴点はさらに、左肩特徴点座標、右肩特徴点座標、および、胸特徴点座標を有し、
    前記左肩特徴点座標と前記右肩特徴点座標間の間で第一直線を接続し、前記第一直線の中間点を円中心と見なし、
    前記胸特徴点座標と前記円中心を接続して、第二直線を形成し、
    前記第二直線と前記第一直線の間の挟角の角度を計算し、および
    度スレショルドより小さい前記挟角の第一挟角を選択して、前記判断された人体の方向を判断し、
    前記角度スレショルドは、90度より小さく、且つ、0度より大きい一角度であり、前記第一挟角が90度に等しいとき、これは、前記判断された人体の方向が、前記人体の正面であることを意味し、
    前記第一挟角が、前記角度スレショルド以下で、および、前記第一挟角が、前記第一直線の前記左側にあるとき、前記判断された人体の方向は、左側身体であり、
    前記第一挟角が、前記角度スレショルド以下で、且つ、前記第一挟角が、前記第一直線の前記右側に位置するとき、前記判断された人体の方向は、右側身体であり、および、
    前記第一挟角が全て、前記角度スレショルドより大きいとき、前記判断された人体の方向は、前記人体の正面であり、
    前記人体イメージ中の前記人頭の輪郭イメージに、人の顔があるか否か判断し、
    処理装置が、前記人体イメージ中の前記人頭の輪郭イメージに、顔がないと判断するとき、前記判断された人体の方向は、前記人体の前記背面であることを特徴とする請求項1に記載の人体の方向を検出する検出方法。
  4. さらに、
    前記判断された人体の方向を統計(counting)して、使用習慣情報を得る工程と、
    前記判断された人体の方向を、拡張現実モジュールに送信する工程と、
    前記判断された人体の方向にしたがって、前記拡張現実モジュールにより、前記人体イメージとバーチャル製品を結合して、結合イメージを生成する工程、および、
    ディスプレイモジュールにより、ディスプレイ上で、前記結合イメージを表示する工程、
    を有することを特徴とする請求項1に記載の人体の方向を検出する検出方法。
  5. 人体の方向を検出する検出装置であって、
    人体イメージを捕捉するカメラ、および
    前記人体イメージ中の人頭の輪郭イメージを切り取って、入力イメージを得るとともに、前記入力イメージを分類器に入力し、前記分類器が、前記入力イメージの複数の人体方向確率を出力する処理装置、を有し、
    前記処理装置は、最大の人体方向確率を見つけるとともに、前記最大の人体方向確率が、正確なスレショルドより大きいか否か判断し、
    前記最大の人体方向確率が、前記正確なスレショルドより大きいとき、前記処理装置は、前記最大の人体方向確率に対応する前記人体の方向を、判断された人体の方向であると見なし、
    前記分類器は、前記入力イメージの複数の骨格特徴点を出力し、
    前記最大の人体方向確率が、前記正確なスレショルドより小さいとき、前記骨格特徴点により判断された前記人体の方向を、前記判断された人体の方向であると見なすことを特徴とする人体の方向を検出する検出装置。
JP2021170311A 2021-04-28 2021-10-18 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法 Active JP7235826B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110115222 2021-04-28
TW110115222A TWI768852B (zh) 2021-04-28 2021-04-28 人體方向之偵測裝置及人體方向之偵測方法

Publications (2)

Publication Number Publication Date
JP2022170649A JP2022170649A (ja) 2022-11-10
JP7235826B2 true JP7235826B2 (ja) 2023-03-08

Family

ID=83103988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021170311A Active JP7235826B2 (ja) 2021-04-28 2021-10-18 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法

Country Status (4)

Country Link
US (1) US11816860B2 (ja)
JP (1) JP7235826B2 (ja)
CN (1) CN115249365A (ja)
TW (1) TWI768852B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115862074B (zh) * 2023-02-28 2023-05-30 科大讯飞股份有限公司 人体指向确定、屏幕控制方法、装置及相关设备
CN117115862A (zh) * 2023-10-23 2023-11-24 四川泓宝润业工程技术有限公司 一种基于深度学习的多个人体的跌倒检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (ja) 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2006304331A (ja) 2006-05-25 2006-11-02 Sony Corp 試着画像生成装置及び試着画像生成方法、試着画像利用端末及び試着画像利用方法、並びにコンピュータ・プログラム
JP2016001447A (ja) 2014-06-12 2016-01-07 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
JP2017016512A (ja) 2015-07-03 2017-01-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2020065790A1 (ja) 2018-09-26 2020-04-02 日本電気株式会社 推定装置、推定方法、および記憶媒体
WO2020110857A1 (ja) 2018-11-26 2020-06-04 住友電気工業株式会社 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム
CN112164091A (zh) 2020-08-25 2021-01-01 南京邮电大学 基于三维骨架提取的移动设备人体位姿估计方法
CN112258275A (zh) 2020-10-22 2021-01-22 郝凌宇 远程可视化服装设计定制方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009025077A1 (de) * 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
TWM537277U (zh) * 2016-09-26 2017-02-21 Hungkuang Univ 嬰兒照護資訊系統
US10885708B2 (en) * 2018-10-16 2021-01-05 Disney Enterprises, Inc. Automated costume augmentation using shape estimation
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11482041B2 (en) * 2020-10-21 2022-10-25 Adobe Inc. Identity obfuscation in images utilizing synthesized faces

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (ja) 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
JP2006304331A (ja) 2006-05-25 2006-11-02 Sony Corp 試着画像生成装置及び試着画像生成方法、試着画像利用端末及び試着画像利用方法、並びにコンピュータ・プログラム
JP2016001447A (ja) 2014-06-12 2016-01-07 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
JP2017016512A (ja) 2015-07-03 2017-01-19 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
WO2020065790A1 (ja) 2018-09-26 2020-04-02 日本電気株式会社 推定装置、推定方法、および記憶媒体
WO2020110857A1 (ja) 2018-11-26 2020-06-04 住友電気工業株式会社 交通情報処理サーバ、交通情報の処理方法、及びコンピュータプログラム
CN112164091A (zh) 2020-08-25 2021-01-01 南京邮电大学 基于三维骨架提取的移动设备人体位姿估计方法
CN112258275A (zh) 2020-10-22 2021-01-22 郝凌宇 远程可视化服装设计定制方法

Also Published As

Publication number Publication date
CN115249365A (zh) 2022-10-28
US11816860B2 (en) 2023-11-14
US20220351408A1 (en) 2022-11-03
TWI768852B (zh) 2022-06-21
TW202242797A (zh) 2022-11-01
JP2022170649A (ja) 2022-11-10

Similar Documents

Publication Publication Date Title
US10546417B2 (en) Method and apparatus for estimating body shape
US10470510B1 (en) Systems and methods for full body measurements extraction using multiple deep learning networks for body feature measurements
Jegham et al. Vision-based human action recognition: An overview and real world challenges
US10621779B1 (en) Artificial intelligence based generation and analysis of 3D models
JP7342919B2 (ja) 情報処理システム、制御方法、及びプログラム
US9372546B2 (en) Hand pointing estimation for human computer interaction
JP7235826B2 (ja) 人体の方向を検出する検出装置、および、人体の方向を検出する検出方法
JP4830650B2 (ja) 追跡装置
US20100086213A1 (en) Image recognition apparatus and image recognition method
WO2017141344A1 (ja) 3次元モデル生成システム、3次元モデル生成方法、及びプログラム
EP2339507B1 (en) Head detection and localisation method
Yi et al. Egolocate: Real-time motion capture, localization, and mapping with sparse body-mounted sensors
Papadopoulos et al. Human action recognition using 3d reconstruction data
Tsalakanidou et al. A 3D face and hand biometric system for robust user-friendly authentication
WO2022009301A1 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20200113743A (ko) 인체 자세 추정 및 보정을 하는 방법 및 장치
Shadrach et al. Smart virtual trial room for apparel industry
JP2005351814A (ja) 検出装置および検出方法
CN116246343A (zh) 轻量化的人体行为识别方法及装置
CN114219578A (zh) 无人服装售卖方法、装置、终端及存储介质
Pham et al. Hand detection and segmentation using multimodal information from Kinect
KR101844367B1 (ko) 부분 포즈 추정에 의하여 개략적인 전체 초기설정을 사용하는 머리 포즈 추정 방법 및 장치
CN114641794A (zh) 图像处理装置、图像处理方法以及存储图像处理程序的非暂时性计算机可读介质
JP7374401B1 (ja) 人物相関判定装置、人物相関判定方法および人物相関判定プログラム
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230224

R150 Certificate of patent or registration of utility model

Ref document number: 7235826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150