JP6273686B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- JP6273686B2 JP6273686B2 JP2013070893A JP2013070893A JP6273686B2 JP 6273686 B2 JP6273686 B2 JP 6273686B2 JP 2013070893 A JP2013070893 A JP 2013070893A JP 2013070893 A JP2013070893 A JP 2013070893A JP 6273686 B2 JP6273686 B2 JP 6273686B2
- Authority
- JP
- Japan
- Prior art keywords
- candidate group
- image
- candidate
- image processing
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Endoscopes (AREA)
Description
図1は、一つの実施形態による画像処理装置1の機能ブロック図である。画像処理装置1は、取得部2、検出部3、記憶部4、選定部5を有する。なお、画像処理装置1は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。
取得部2は、取得した画像を検出部3に出力する。
なお、生体的位置関係は、例えば、第1部位の一端と第2部位の外縁が、連接点において可動状態で連接していることを特徴とする。換言すると、生体的位置関係は、ユーザの手指の付根(連接点と称しても良い)と手の甲が連接している位置関係を指す。
(数1)
(x1−x2)2+(y1−y2)2<TH1
|a1 − a2|<TH2
|w1 − w2|<TH3
但し、(x1、y1)は、A2の中心位置、a1はA2の中心位置の画像原点に対する角度、w1は、A2の幅とする。また、(x2、y2)は、B2の中心位置、a2はB2の中心位置の画像原点に対する角度、w2は、B2の幅とする。更に、TH1、TH2、TH3は任意の閾値である。更に、選定部5は、1つの第2部位に対応する第1部位を選定した場合は、第1部位に対してラベリングを行う統合処理を行っても良い。
図11は、一つの実施形態による画像処理装置1のハードウェア構成図である。図11に示すように、画像処理装置1は、制御部6、主記憶部7、補助記憶部8、ドライブ装置9、ネットワークI/F部11、入力部12、表示部13を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
(付記1)
ユーザの第1部位と第2部位を含む画像を取得する取得部と、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出する検出部と、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定する選定部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶する記憶部を更に備え、
前記検出部は、
前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
ことを特徴とする付記1記載の画像処理装置。
(付記3)
前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする付記1または付記2記載の画像処理装置。
(付記4)
前記記憶部は、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
前記選定部は、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする付記2または付記3記載の画像処理装置。
(付記5)
前記第1部位は手指であり、前記第2部位は手背または手掌であることを特徴とする付記1ないし付記4の何れか一つに記載の画像処理装置。
(付記6)
前記選定部は、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする付記1ないし付記3の何れか一つに記載の画像処理装置。
(付記7)
前記記憶部は、HOG特徴量またはLBP特徴量に基づく前記第1特徴量モデルと前記第2特徴量モデルを記憶しており、
前記検出部は、前記第1候補群と前記第2候補群を、HOG特徴量またはLBP特徴量を用いて検出することを特徴とする付記1ないし付記6いずれか一つに記載の画像処理装置。
(付記8)
前記検出部は、色特徴量を更に用いて前記第1候補群と前記第2候補群を検出することを特徴とする付記7記載の画像処理装置。
(付記9)
前記選定部は、前記画像における前記第1部位の先端位置を算出することを特徴とする付記1ないし付記8いずれか一つに記載の画像処理装置。
(付記10)
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定すること
を含むことを特徴とする画像処理方法。
(付記11)
前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶することを更に含み、
前記検出することは、
前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
ことを特徴とする付記10記載の画像処理方法。
(付記12)
前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする付記10または付記11記載の画像処理方法。
(付記13)
前記記憶することは、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
前記選定することは、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする付記11または付記12記載の画像処理方法。
(付記14)
前記第1部位は手指であり、前記第2部位は手背または手掌であることを特徴とする付記10ないし付記13の何れか一つに記載の画像処理方法。
(付記15)
前記選定することは、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする付記10ないし付記12の何れか一つに記載の画像処理方法。
(付記16)
前記記憶することは、HOG特徴量またはLBP特徴量に基づく前記第1特徴量モデルと前記第2特徴量モデルを記憶しており、
前記検出することは、前記第1候補群と前記第2候補群を、HOG特徴量またはLBP特徴量を用いて検出することを特徴とする付記10ないし付記15いずれか一つに記載の画像処理方法。
(付記17)
前記検出することは、色特徴量を更に用いて前記第1候補群と前記第2候補群を検出することを特徴とする付記16記載の画像処理方法。
(付記18)
前記選定することは、前記画像における前記第1部位の先端位置を算出することを特徴とする付記11ないし付記17いずれか一つに記載の画像処理方法。
(付記19)
コンピュータに、
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係に基づいて、前記第1候補群と前記第2候補群から前記第1部位または前記第2部位を選定すること
を実行させることを特徴とする画像処理プログラム。
2 取得部
3 検出部
4 記憶部
5 選定部
Claims (7)
- ユーザの第1部位と第2部位を含む画像を取得する取得部と、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出する検出部と、
前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定する選定部と、
を備え、
前記第1部位は手指であり、前記第2部位は手背または手掌である
ことを特徴とする画像処理装置。 - 前記第1部位の特徴量を予め抽出した第1特徴量モデルと、前記第2部位の特徴量を予め抽出した第2特徴量モデルを記憶する記憶部を更に備え、
前記検出部は、
前記第1特徴量モデルとの類似度が、所定の第1閾値以上の前記画像に含まれる物体を前記第1候補群として検出し、
前記第2特徴量モデルとの類似度が、所定の第2閾値以上の前記画像に含まれる物体を前記第2候補群として検出する
ことを特徴とする請求項1記載の画像処理装置。 - 前記生体的位置関係は、前記第1部位の一端と前記第2部位の外縁が、連接点において可動状態で連接していることを特徴とする請求項1または請求項2記載の画像処理装置。
- 前記記憶部は、前記第1部位の所定の基準位置に対して前記第2部位が検出され得る、前記生体的位置関係に基づいた検索領域データを記憶しており、
前記選定部は、前記検索領域データに基づいて、前記第1候補群と前記第2候補群から前記第1部位と前記第2部位を選定することを特徴とする請求項2記載の画像処理装置。 - 前記選定部は、複数の前記第1部位の一端が前記第2部位の外縁に連接している場合は、前記第2部位にそれぞれ対応する前記第1部位として、前記複数の前記第1部位を選定することを特徴とする請求項1ないし請求項3の何れか一項に記載の画像処理装置。
- コンピュータによって実行される画像処理方法であって、
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定すること
を含み、
前記第1部位は手指であり、前記第2部位は手背または手掌である
ことを特徴とする画像処理方法。 - コンピュータに、
ユーザの第1部位と第2部位を含む画像を取得し、
前記画像に含まれる前記第1部位の候補となる第1候補群と、前記第2部位の候補となる第2候補群を検出し、
前記第1部位と前記第2部位の生体的位置関係を満たさない前記第1部位の候補及び前記第2部位の候補を、時系列において前記画像の前に取得された前画像において選定された前記第1部位及び前記第2部位に依存することなく、前記第1候補群及び前記第2候補群からそれぞれ除外することにより、前記第1候補群と前記第2候補群から単一の前記第1部位及び単一の前記第2部位を選定すること
を実行させ、
前記第1部位は手指であり、前記第2部位は手背または手掌である
ことを特徴とする画像処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013070893A JP6273686B2 (ja) | 2013-03-29 | 2013-03-29 | 画像処理装置、画像処理方法および画像処理プログラム |
US14/159,584 US9471171B2 (en) | 2013-03-29 | 2014-01-21 | Image processing device and method |
EP14154451.0A EP2784720B1 (en) | 2013-03-29 | 2014-02-10 | Image processing device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013070893A JP6273686B2 (ja) | 2013-03-29 | 2013-03-29 | 画像処理装置、画像処理方法および画像処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014194685A JP2014194685A (ja) | 2014-10-09 |
JP6273686B2 true JP6273686B2 (ja) | 2018-02-07 |
Family
ID=50070422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013070893A Active JP6273686B2 (ja) | 2013-03-29 | 2013-03-29 | 画像処理装置、画像処理方法および画像処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9471171B2 (ja) |
EP (1) | EP2784720B1 (ja) |
JP (1) | JP6273686B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10043084B2 (en) * | 2016-05-27 | 2018-08-07 | Toyota Jidosha Kabushiki Kaisha | Hierarchical context-aware extremity detection |
JP7099526B2 (ja) * | 2018-07-04 | 2022-07-12 | 富士通株式会社 | 判定方法、判定プログラムおよび情報処理装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1394727B1 (en) * | 2002-08-30 | 2011-10-12 | MVTec Software GmbH | Hierarchical component based object recognition |
JP2007122218A (ja) * | 2005-10-26 | 2007-05-17 | Fuji Xerox Co Ltd | 画像分析装置 |
US8160322B2 (en) * | 2007-08-02 | 2012-04-17 | Siemens Medical Solutions Usa, Inc. | Joint detection and localization of multiple anatomical landmarks through learning |
US8406497B2 (en) * | 2009-02-25 | 2013-03-26 | Dongwook YOON | Method for population-driven identification of body landmarks |
JP5297530B2 (ja) * | 2009-07-15 | 2013-09-25 | 株式会社東芝 | 画像処理装置、及びインターフェース装置 |
US7961910B2 (en) * | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US20110304541A1 (en) * | 2010-06-11 | 2011-12-15 | Navneet Dalal | Method and system for detecting gestures |
US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
-
2013
- 2013-03-29 JP JP2013070893A patent/JP6273686B2/ja active Active
-
2014
- 2014-01-21 US US14/159,584 patent/US9471171B2/en active Active
- 2014-02-10 EP EP14154451.0A patent/EP2784720B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20140292644A1 (en) | 2014-10-02 |
EP2784720B1 (en) | 2021-12-29 |
EP2784720A2 (en) | 2014-10-01 |
JP2014194685A (ja) | 2014-10-09 |
EP2784720A3 (en) | 2017-11-22 |
US9471171B2 (en) | 2016-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6941198B2 (ja) | ジェスチャー認識方法、ジェスチャー認識装置、電子機器、及び記憶媒体 | |
US8970696B2 (en) | Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system | |
JP6007497B2 (ja) | 画像投影装置ならびに画像投影制御装置およびプログラム | |
US9792494B2 (en) | Image processing apparatus, method, and program capable of recognizing hand gestures | |
JP6056319B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6221505B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6326847B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR20130071341A (ko) | 안면 특징 벡터 구성 | |
US9213897B2 (en) | Image processing device and method | |
JP5656768B2 (ja) | 画像特徴量抽出装置およびそのプログラム | |
JP5887264B2 (ja) | 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体 | |
KR20220042335A (ko) | 자동 수어 인식 방법 및 시스템 | |
US20160140762A1 (en) | Image processing device and image processing method | |
US10930068B2 (en) | Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program | |
US9727145B2 (en) | Detecting device and detecting method | |
JP6273686B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
Ozer et al. | Vision-based single-stroke character recognition for wearable computing | |
Tarrataca et al. | The current feasibility of gesture recognition for a smartphone using J2ME | |
KR101200009B1 (ko) | 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법 | |
KR101909326B1 (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
US10796435B2 (en) | Image processing method and image processing apparatus | |
JP2021144359A (ja) | 学習装置、推定装置、学習方法、及びプログラム | |
US11847823B2 (en) | Object and keypoint detection system with low spatial jitter, low latency and low power usage | |
KR101730711B1 (ko) | 스트로크 입력 순서의 복원 방법 및 장치 | |
JP2017072940A (ja) | 画像処理システム、画像処理方法および画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151204 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170123 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170711 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171011 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20171019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6273686 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |