JP2009510571A - 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム - Google Patents
図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2009510571A JP2009510571A JP2008532660A JP2008532660A JP2009510571A JP 2009510571 A JP2009510571 A JP 2009510571A JP 2008532660 A JP2008532660 A JP 2008532660A JP 2008532660 A JP2008532660 A JP 2008532660A JP 2009510571 A JP2009510571 A JP 2009510571A
- Authority
- JP
- Japan
- Prior art keywords
- ellipse
- point
- image
- coordinates
- curve
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000003909 pattern recognition Methods 0.000 claims description 128
- 238000004364 calculation method Methods 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 37
- 238000005452 bending Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000011524 similarity measure Methods 0.000 claims description 11
- 230000001934 delay Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 230000033001 locomotion Effects 0.000 claims description 6
- 210000001747 pupil Anatomy 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 4
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 37
- 230000001131 transforming effect Effects 0.000 description 31
- 230000015654 memory Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 230000003111 delayed effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000012447 hatching Effects 0.000 description 3
- 238000012567 pattern recognition method Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 241000208140 Acer Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/48—Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Testing Of Coins (AREA)
- Image Generation (AREA)
Abstract
【選択図】図1
Description
y=mx+n、
x、y−軸、
m、n−直線パラメータ
r2=(x−x0)2+(y−y0)2、
x、y−軸、
x0、y0−中心の座標、
r−半径
を用いて、計算することができる。
図1は、本発明の第1の実施形態による図形画像内の楕円の形状および/または位置に関する情報を決定するための本発明の装置のブロック回路図であり、
図2aは、楕円と第1の楕円点、第2の楕円点、第3の楕円点、第4の楕円点および楕円の中心の座標との図解図であり、
図2bは、原点に移動された楕円および2つの楕円点の変換された座標の図解図であり、
図3は、例示的なラスタ画像および連続的に処理された画像抜粋の図解図であり、
図4aは、本発明の第2の実施形態による楕円点の座標を決定するための本発明の装置のブロック回路図であり、
図4bは、本発明のパターン認識手段に用いるための3つの例示的な基準曲線の図解図であり、
図5aは、認識された曲線セグメントに印が付けられた例示的なラスタ画像の第1の図解図であり、
図5bは、認識された曲線セグメントに印が付けられた例示的なラスタ画像の第2の図解図であり、
図6は、図形画像内の楕円の形状および/または位置に関する情報を決定するための本発明の装置に用いるためのパターン認識手段のブロック回路図であり、
図7aは、図6によるパターン認識手段を介して図形画像を前進するための手順の図解図であり、
図7bは、ラスタ画像の並列時間信号への変換において生じる時間信号の図解図であり、
図8は、本発明の第3の実施形態による図形画像内の楕円の形状および/または位置に関する情報を決定するための本発明の装置のブロック回路図であり、
図9は、本発明の第4の実施形態による図形画像内の楕円の形状および/または位置に関する情報を決定するための本発明の装置のブロック回路図からの抜粋であり、
図10は、本発明の装置の実装のためのフィールドプログラマブルゲートアレイ(FPGA)の例示的なアーキテクチャのブロック回路図であり、
図11は、本発明の第4の実施形態によるFPGA内に実現するための本発明の回路アーキテクチャのブロック回路図であり、
図12は、本発明の第5の実施形態による本発明のハフ変換手段のブロック回路図であり、
図13は、本発明のハフ変換手段によって処理される画像の図解図であり、
図14は、本発明のハフ変換手段を通過する際に得られる曲線経路の図解図であり、
図15は、本発明のハフ変換手段の例示的な構造の概略図であり、
図16aは、本発明のハフ変換手段によって処理された、認識された端点を有する円の画像の図解図であり、
図16bは、本発明のハフ変換手段によって処理された、4つの認識された端点を有する円の画像の図解図であり、
図17は、図形画像内の楕円の形状および/または位置に関する情報を決定するための本発明の方法のフローチャートである。
xx=x3−xm、yx=y3−ym
が適用される移動によって第1の楕円点226からもたらされるという事実が指摘される。
xy=x2−xm、yy=y2−ym
が適用される移動によって第3の楕円点230からさらにもたらされる。
および
が適用される。
が導かれる。
xxおよびyyが同一の正負符号を有する場合、
が適用され、
しかしながら、正負符号が異なる場合、
が適用される。
((x0、y0)および(x2、y2)および(x1、y1、x3またはy3))または
((x1、y1)および(x3、y3)および(x0、y0、x2またはy2))
は、楕円パラメータの決定に対して既知である必要がある。
Claims (35)
- 図形画像(112;812)内の楕円の形状および/または位置に関する情報(122)を決定するための装置(100;800)であって、前記図形画像(112;812)は第1の方向(130;x)と第2の方向(132;y)とを含み、前記装置は、
前記第1の方向(130;x)の最遠に位置する前記楕円(134;220)の点を表す第1の楕円点(136;226)の2つの座標(x1’、y1’;x3、y3)を決定し、かつ
前記第1の方向(130;x)と逆の方向の最遠に位置する前記楕円(134;220)の点を表す第2の楕円点(138;228)の2つの座標(x3’、y3’;x1、y1)を決定するための座標決定手段(110;400;830、832、840、842)を備え、
前記座標決定手段(110;420;430;814、830、832、840、842)は、前記第1の楕円点(136;226)または前記第1の楕円点(136;226)の周囲において前記楕円(134;220)に近似する第1の曲線セグメント(146)の少なくとも1つのパラメータを決定し、前記第1の曲線セグメント(146)の前記少なくとも1つのパラメータに基づいて、前記第1の楕円点(136;226)の前記座標(x1’、y1’;x3、y3)を決定し、かつ
前記第2の楕円点(138;228)または前記第2の楕円点(138;228)の周囲において前記楕円(134;220)に近似する第2の曲線セグメント(148)の少なくとも1つのパラメータを決定し、前記第2の曲線セグメント(148)の前記少なくとも1つのパラメータに基づいて、前記第2の楕円点(138;228)の前記座標(x3’、y3’;x1、y1)を決定するように形成され、
前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)および前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)に基づいて、少なくとも1つの楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)を計算するための楕円計算手段(120;850)を備え、
前記少なくとも1つの楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)は、前記楕円(134;220)の前記形状および/または前記位置に関する前記情報(122)を表す、装置(100;800)。 - 前記座標決定手段(110;400;814、830、832、840、842)は、さらに、前記第2の方向(132;y)の最遠に位置する前記楕円(134;220)の点を表す第3の楕円点(140;230)の少なくとも1つの座標(x4’、y4’;x2、y2)を決定するように形成され、
前記座標決定手段(110;400;814、830、832、840、842)は、第3の楕円点(140;230)または前記第3の楕円点(140;230)の周囲において前記楕円(134;220)に近似する第3の曲線セグメント(150)の少なくとも1つのパラメータを決定し、かつ
前記第3の曲線セグメント(150)の前記少なくとも1つのパラメータに基づいて、前記第3の楕円点(140;230)の少なくとも1つの座標(x4’、y4’;x2、y2)を決定するように形成され、
前記楕円計算手段(120)は、前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)、前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)および前記第3の楕円点(140;230)の前記少なくとも1つの座標(x4’、y4’;x2、y2)に基づいて、少なくとも1つの楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)を計算するように形成されている、請求項1に記載の装置(100;800)。 - 前記図形画像(112;812)は、複数のラスタ行(320、330、332、334、368、372)内および/または複数のラスタ列(322、336、338、340、362、366)内に配置された複数の像点(312、314)を含むラスタ画像(310)であり、前記楕円(134、220;350)は、楕円点を形成する複数の像点によって描写され、および/または、前記第1の曲線セグメント(146)は、複数の隣接する像点によって描写することができ、および/または、前記第2の曲線セグメント(148)は、複数の隣接する像点によって描写することができ、および/または、前記第3の曲線セグメント(150)は、複数の隣接する像点によって描写することができる、請求項1または請求項2に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、複数(360;364;370;374;380)のラスタ行および/またはラスタ列によって形成された特定対象の前記画像の画像抜粋(360、364、370、374、380;740;1320、1330)内で、前記第1の曲線セグメント(146)を形成する曲線経路(510、520、560、570)を特定するために、前記ラスタ行(320、330、332、334、368、372)および/または前記ラスタ列(322、336、338、340、362、366)を用いてパターン認識を実行し、かつ前記特定された曲線経路(510、520、560、570)の少なくとも1つのパラメータを前記第1の曲線セグメント(146)のパラメータとして決定するように形成されている、請求項3に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、
前記複数(360、364、370、374、380)のラスタ行および/またはラスタ列によって形成された特定対象の前記画像(112;310;812;1300)の前記画像抜粋(1320、1330)内で、解析対象の前記画像抜粋(1320、1330)が、所定の類似性測度に関して、前記第1の曲線セグメント(146)の種々のパラメータに対する前記第1の曲線セグメント(146)の許容可能な経路を描写する第1の組の取り得る基準曲線経路(452、454、456)からの基準曲線経路に十分に類似する曲線経路を含むかどうかチェックすることにより、前記第1の曲線セグメント(146)を形成する曲線経路を特定し、
および/または、前記複数(360、364、370、374、380)のラスタ行(320、330、332、334、368、372)および/またはラスタ列(322、336、338、340、362、366)によって形成された解析対象の前記画像(112;310;812;1300)の前記画像抜粋(1320、1330)内で、解析対象の前記画像抜粋(1320、1330)が、所定の類似性測度に関して、前記第2の曲線セグメント(148)の種々のパラメータに対する前記第2の曲線セグメント(148)の許容可能な経路を描写する第2の組の取り得る基準曲線経路(452、454、456)からの基準曲線経路に十分に類似する曲線経路を含むかどうかチェックすることにより、前記第2の曲線セグメント(148)を形成する曲線経路を特定し、
および/または、前記複数(360、364、370、374、380)のラスタ行(320、330、332、334、368、372)および/またはラスタ列(322、336、338、340、362、366)によって形成された解析対象の前記画像(112;310;812;1300)の前記画像抜粋(1320、1330)内で、解析対象の前記画像抜粋(1320、1330)が、所定の類似性測度に関して、前記第3の曲線セグメント(150)の種々のパラメータに対する前記第3の曲線セグメント(150)の許容可能な経路を描写する第3の組の取り得る基準曲線経路からの基準曲線経路に十分に類似する曲線経路を含むかどうかチェックすることにより、前記第3の曲線セグメント(150)を形成する曲線経路を特定するために、
前記ラスタ行(320、330、332、334、368、372)および/またはラスタ列(322、336、338、340、362、366)を用いてパターン認識を実行するように形成されている、請求項4に記載の装置(100;800)。 - 前記1組の取り得る基準曲線経路(452、454、456)は、それらの位置および/または形状に関して異なる曲線経路を描写し、前記位置および/または形状を特徴付ける少なくとも1つのパラメータは、複数の取り得る基準曲線経路(452、454、456)からの曲線経路と関連付けられ、前記座標決定手段(110;400;814、830、832、840、842)は、前記所定の類似性測度に関して、前記複数の取り得る基準曲線経路(452、454、456)からの前記曲線経路のうちのどの1つが前記画像抜粋(1320、1330)内の曲線経路に十分に類似しているかについての事実から、前記第1の楕円点(136)において前記楕円(134)に近似する前記第1の曲線セグメント(146)のパラメータ、前記第2の楕円点(138)において前記楕円に近似する前記第2の曲線セグメント(148)の前記パラメータまたは前記第3の楕円点(140)において前記楕円に近似する前記第3の曲線セグメント(150)の前記パラメータを導出するように形成されている、請求項5に記載の装置(100;800)。
- 前記曲線経路は、それらが前記第1の楕円点または前記第2の楕円点または前記第3の楕円点において異なる形状および/または位置の楕円に近似するように、複数の取り得る基準曲線経路(452、454、456)から選択される、請求項5または請求項6に記載の装置(100;800)。
- 前記曲線経路は、それらが異なる位置および/または異なる半径の円形曲線からの抜粋を描写するように、前記複数の取り得る基準曲線経路(452、454、456)から選択される、請求項5から請求項7のうちの1項に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、解析対象の複数の画像抜粋(360、364、370、374、380;740;1320、1330)内で、前記第1の曲線セグメント(136)を形成する曲線経路を特定するために、解析対象の前記画像(112;310;812;1300)の複数の画像抜粋(360、364、370、374、380;740;1320、1330)にパターン認識(420;830、832、840、842)を適用し、かつ前記画像(112;310;812;1300)の前記複数の画像抜粋(360、364、370、374、380;740;1320、1330)のうちのどの1つにおいて前記第1の曲線セグメント(136)が特定されるかに基づいて、前記第1の曲線セグメント(136)の位置パラメータを決定するように形成されている、請求項1から請求項8のうちの1項に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、解析対象の前記画像(112;310;812;1300)の前記複数の画像抜粋(360、364、370、374、380;740;1320、1330)に前記パターン認識(400;830;832;840;842)を適用するように形成され、前記解析対象の画像抜粋は、前記複数の解析対象の画像抜粋(360、364、370、374、380;740;1320、1330)のうちの少なくとも2つの画像抜粋が重ね合わされるように選択される、請求項9に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、前記第3の楕円点(140;230)の少なくともさらなる座標(x4’、y4’;x2、y2)を追加の座標として決定するか、または、前記第2の方向(132;y)と逆の方向の最遠に位置する前記楕円(132;220)の点を表す第4の楕円点(142;232)の少なくとも1つの座標(x2’、y2’;x0、y0)を決定するように形成され、
前記楕円計算手段(120;850)は、前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)、前記第3の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)および前記第3の楕円点(140;230)の前記第1の座標(x4’、y4’;x2、y2)に基づいて、少なくとも1つの楕円パラメータを含む第1の組の楕円パラメータを計算すると共に、前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)、前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)および前記追加の座標(x4’、y4’、x2’、y2’;x0、y0、x2、y2)に基づいて、少なくとも1つの楕円パラメータを含む第2の組の楕円パラメータを計算し、かつ前記第1の組の楕円パラメータおよび前記第2の組の楕円パラメータを用いて、平均によって、結果の1組の楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)を計算するように形成されている、請求項1から請求項10のうちの1項に記載の装置(100;800)。 - 前記座標決定手段(110;400;814、830、832、840、842)は、前記第2の方向(132;y)の最遠に位置する前記楕円の点を表す前記第3の楕円点(140;230)の2つの座標(x4’、y4’;x2、y2)および前記第2の方向(132;y)と逆の方向の最遠に位置する前記楕円の点を表す第4の楕円点(142;232)の2つの座標(x2’、y2’;x0、y0)を決定し、さらに、前記複数組の楕円点(136、138、140、142;226、228、230、232)に対する関連する複数組の楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)を決定するために、前記第1の楕円点(136;226)、前記第2の楕円点(138;228)、前記第3の楕円点(140;230)および前記第4の楕円点(142;232)から3つの楕円点の複数の異なる組を選択し、かつ前記複数組の楕円点に属する前記複数組の楕円パラメータの平均によって、前記楕円(134;220)の前記形状および/または位置に関する情報として、平均の1組の楕円パラメータを計算するように形成されている、請求項1から請求項11のうちの1項に記載の装置(100;800)。
- 前記座標決定手段(110;400;814、830、832、840、842)は、前記第2の方向(132;y)の最遠に位置する前記楕円(134;220)の点を表す前記第3の楕円点(140;230)の2つの座標(x4’、y4’;x2、y2)を決定するように形成され、さらに
前記楕円計算手段(120;850)は、さらに、前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)および前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)から、前記楕円(134;220)の中心の座標を(xm、ym)を計算し、
前記第1の楕円点(136;226)および前記第3の楕円点(138;228)の変換された座標(xx、yx、xy、yy)を取得するために、前記第1の楕円点(136;226)および前記第3の楕円点(140;230)の前記座標(x1’、y1’、x4’、y4’;x3、y3、x2、y2)の座標変換を実行し、前記座標変換は、前記中心の座標(xm、ym)によって描写される前記楕円(134;220)の中心(240)を座標の原点(264)に移動するように形成され、
xxが前記第1の楕円点(136;226)の変換された第1の座標で、yxが前記第1の楕円点(136;226)の変換された第2の座標で、xyが前記第3の楕円点(140;230)の変換された第1の座標である決定式
を用いて、前記第3の楕円点の推定される変換された第2の座標yy、calcを計算し、
さらに、前記第3の楕円点(140;230)の前記推定される変換された第2の座標yy、calcと、前記座標変換によって決定された前記第3の楕円点(140;230)の前記変換された第2の座標yyとの間の偏差に基づいて、前記第3の楕円点(140;230)が前記第1の楕円点(136;226)および前記第2の楕円点(138;228)によって描写される前記楕円(134;220)に属するかどうかを決定するように形成されている、請求項1から請求項12のうちの1項に記載の装置。 - 前記楕円計算手段(120;850)は、さらに、前記楕円(134;220)の回転角α、前記楕円(134;220)の第1の半軸の長さaおよび/または前記楕円(134;220)の第2の半軸の長さbを、次の決定式
を用いて計算するように形成され、
ここで、u、kxおよびkyは、補助量であり、
ρは、前記第1の半軸の長さaと前記第2の半軸の長さbとの間の比率であり、
前記決定式におけるuに対する正負符号は、前記第1の変換された楕円点および/または前記第2の変換された楕円点の位置に応じて、前記補助量kxおよびkyに基づいて確立され、
ρに対する前記2つの決定式のうちの少なくとも1つは、kx、kyおよびにuに応じて用いられる、請求項14に記載の装置(100;800)。 - 前記座標決定手段(110;400;814、830、832、840、842)は、複数の並列時間信号(612、614、616)という形式の、解析対象の複数のラスタ行(320、330、332、334、368、372)または解析対象の複数のラスタ列(322、336、338、340、362、366)を受信し、さらに、前記時間信号(612、614、616)を、順次接続された複数の段階(610)を経由して、異なる速度で並列に転送するように形成され、
少なくとも1つの所定の段階(610)は、列合計(632)を形成するために、前記所定の段階(610)から出る信号を合計するように形成された合計手段(630)を含み、
前記パターン認識手段(600)は、さらに、前記パターン認識手段(600)から受信された前記ラスタ行(320、330、332、334、368、372)または前記ラスタ列(322、336、338、340、362、366)に含まれる曲線セグメント(146、148、150、152)に関する情報を決定するために、前記列合計(632)を評価するように形成され、
前記情報は、前記受信されたラスタ行(320、330、332、334、368、372)またはラスタ列(322、336、338、340、362、366)に含まれる前記曲線セグメント(146、148、150、152)の少なくとも1つのパラメータを含む、請求項1から請求項15のうちの1項に記載の装置(100;800)。 - 前記所定の段階(610)は、前記所定の段階(610)の出力時に少なくとも所定の数の信号(612、614、616)が同時にアクティブであった場合、前記列合計(632)を受信および認識するように形成された閾値認識手段(634)をさらに備え、
前記パターン認識手段(420;600;830、832、840、842)は、さらに、前記受信されたラスタ行(320、330、332、334、368、372)またはラスタ列(322、336、338、340、362、366)に含まれる曲線セグメント(146、148、150、152)の少なくとも1つのパラメータを決定するために、前記閾値認識手段(634)の出力信号を評価するように形成されている、請求項16に記載の装置(100;800)。 - 前記パターン認識手段(420;600;830、832、840、842)は、湾曲した曲線経路の変形された描写(1420、1430、1440)を取得するために、前記信号(612、614、616;1510)の速さの異なる高速伝播により、順次接続された前記段階(610;1530)を通過する際に段階的に、前記パターン認識手段(420;600;830、832、840、842)によって受信された前記信号(612、614、616;1510)によって描写された湾曲した曲線経路(1410)を変形し、かつ特定の段階(610)における複数の同時にアクティブな信号(612、614、616;1510)によって表されるほぼまっすぐな線(1450)が前記変形された描写によって描写されているかどうかを認識するように形成されている、請求項16または請求項17に記載の装置(100;800)。
- 前記パターン認識手段(420;600;830、832、840、842)の前記少なくとも1つの段階(610;1530)は、前記段階(610;1530)を経由していくつかの信号(612、614、616;1510)を転送する際に、それらを異なる強度で遅延させるように形成されている、請求項16から請求項18のうちの1項に記載の装置(100;800)。
- 前記パターン認識手段(420;600;830、832、840、842)は、前記段階(610)を経由して前記信号(612、614、616)を転送する際に異なる遅延(620、624)を確立することにより、前記パターン認識手段によって受信された前記ラスタ行(320、330、332、334、368、372)またはラスタ列(322、336、338、340、362、366)に含まれる円形に曲がった線セグメントが、いくつかの段階(610;1530)を通過した後にほぼまっすぐな線に変形されるように形成され、
前記パターン認識手段(420;600;830、832、840、842)は、ほぼまっすぐな線の存在を認識し、かつ前記まっすぐな線の存在に至るまでの通過段階数を決定し、さらに
前記パターン認識手段(420;600;830、832、840、842)は、さらに、ほぼまっすぐな線の前記存在に至るまでに通過を受けた段階の数から、前記パターン認識手段によって受信された前記円形に曲がった線セグメントの少なくとも1つのパラメータを導出するように形成されている、請求項16から請求項19のうちの1項に記載の装置(100;800)。 - 前記パターン認識手段(420;600;830、832、840、842)は、前記段階(610)を経由して前記信号(612、614、616)を転送する際に異なる遅延(620、624)を設定することにより、前記パターン認識手段(420;600;830、832、840、842)によって受信された前記ラスタ行(320、330、332、334、368、372)またはラスタ列(322、336、338、340、362、366)に含まれる円形に曲がった線セグメントが、いくつかの段階を通過した後にほぼまっすぐな線に変形されるように形成され、前記パターン認識手段は、ほぼまっすぐな線の存在を認識し、かつ前記ほぼまっすぐな線が存在する時刻に基づいて、前記パターン認識手段によって受信された前記円形に曲がった線セグメントの少なくとも1つのパラメータを導出するように形成されている、請求項10から請求項20のうちの1項に記載の装置(100;800)。
- 前記座標決定手段(110;412、420、430;840、820、822、830、832)は、解析対象の連続的に伝送されるラスタ行(320、330、332、334、368、372)という形式で、前記パターン認識手段(420;600;820、822、830、832、)に前記画像(112;310;812)を2度供給するように形成され、
前記座標決定手段は、さらに、前記画像の第1のエッジに位置する前記画像のラスタ行(320)で開始して、前記第1の楕円点(226)の前記2つの座標(x3、y3)の決定のための前記パターン認識手段に前記画像を供給し、かつ前記画像の第2のエッジに位置する前記画像のラスタ行(334)で開始して、前記第2の楕円点(228)の前記2つの座標(x1、y1)の決定のための前記パターン認識手段に前記画像を供給するように形成され、前記画像の前記第1のエッジは、前記画像の前記第2のエッジに対向し、前記パターン認識手段は、所定の湾曲方向を有する曲線セグメントを認識するように形成されている、請求項10から請求項21のうちの1項に記載の装置(100;800)。 - 前記座標決定手段(110;420;814、820、822、830、832)は、第1のパターン認識手段(830)および第2のパターン認識手段(832)を含み、前記第1のパターン認識手段(830)は、第1の所定の湾曲方向を有する曲線セグメントを認識するように形成され、前記第2のパターン認識手段(832)は、前記所定の第1の湾曲方向と逆の第2の湾曲方向を有する曲線セグメントを認識するように形成され、前記座標決定手段は、前記画像の第1のエッジに位置するラスタ行(320)で開始して、前記第1の楕円点(226)の前記2つの座標(x3、y3)の決定のための前記第1のパターン認識手段(830)に前記画像を供給し、かつ前記画像の前記第1のエッジに位置するラスタ行(320)で開始して、前記第2の楕円点(228)の前記2つの座標(x1、y1)の決定のための前記第2のパターン認識手段に前記画像を提供するように形成されている、請求項10から請求項22のうちの1項に記載の装置(100;800)。
- 前記パターン認識手段(412、420;600)は、解析対象の第1の複数のラスタ行(370)とともに解析対象の第2の複数のラスタ行(374)を処理するように形成され、前記解析対象の第1の複数のラスタ行および前記解析対象の第2の複数のラスタ行は重なり合い、さらに
前記パターン認識手段(420)は、さらに、特定対象の前記曲線経路(146、148、150、152)が解析対象の前記第1の複数のラスタ行の解析において特定されるかまたは解析対象の前記第2の複数のラスタ行の解析において特定されるかに基づいて、特定対象の前記曲線経路の位置パラメータを決定するように形成されている、請求項10から請求項23のうちの1項に記載の装置(100;800)。 - 前記第1の方向(130;x)は、前記第2の方向(132;y)と直交する、請求項1から請求項24のうちの1項に記載の装置(100;800)。
- 楕円の前記形状および/または前記位置に関する情報を決定するための前記装置は、2値エッジ画像(310)を図形画像(112;812)として受信するように形成され、前記2値エッジ画像は、アクティブな像点(312)という形式で、少なくとも1本の線(350)によって、少なくとも1つのエッジを描写するのに対して、エッジが存在しない前記エッジ画像内の位置は、非アクティブな像点(314)によって描写される、請求項1から請求項25のうちの1項に記載の装置(100;800)。
- 前記装置は、さらに、ビデオデータソースからのビデオデータから前記図形画像(112;812)を導出するように形成されている、請求項1から請求項26のうちの1項に記載の装置(100;800)。
- 前記楕円の前記形状および/または前記位置に関する前記情報を電気的処理手段またはユーザに出力するように形成されたデータインタフェースまたはディスプレイ装置をさらに備える、請求項1から請求項27のうちの1項に記載の装置(100;800)。
- 楕円の前記形状および/または前記位置に関する情報を決定するための前記装置は、2値化画像を取得するために、明度および/または輝度と閾値との比較の結果に応じて、明値または暗値が前記図形画像の各像点と関連付けられる、閾値2値化によって、前記図形画像(112;812)を前処理するように形成され、
さらに、前記2値化画像内の前記明値から前記暗値へのエッジ状遷移が線状のエッジとして特徴付けられる、前記2値化画像からエッジ画像を生成するように形成されたエッジ検出を前記2値化画像に適用するように形成され、
前記座標決定手段は、さらに、前記エッジ画像を処理するように形成されている、請求項1から請求項28のうちの1項に記載の装置(100;800)。 - 前記装置は、さらに、人間の眼の瞳孔を捕らえるために配置されたビデオカメラから前記図形画像を取得するように形成され、
前記装置は、前記楕円の前記形状および/または前記位置に関する前記情報を前記人間の眼の視線方向を計算するための装置に伝送するように形成されたデータインタフェースをさらに含む、請求項1から請求項29のうちの1項に記載の装置(100;800)。 - 前記装置は、前記楕円の前記形状および/または前記位置に関する前記情報に応じて、機械的動きを引き起こすように形成された機械的位置決め手段に、前記楕円の前記形状および/または前記位置に関する前記情報を出力するように形成されたインタフェースをさらに含む、請求項1から請求項30のうちの1項に記載の装置(100;800)。
- 図形画像(112;812;1710)内の楕円(134;220)の形状および/または位置に関する情報(122;1780)を決定するための方法(1700)であって、前記画像(112;812;1710)は第1の方向(130;x)と第2の方向(132;y)とを含み、前記方法は、
前記第1の方向(130;x)の最遠に位置する前記楕円(134;220)の点を表す第1の楕円点(136;226)の2つの座標(x1’、y1’;x3、y3)を決定するステップ(1720)と、
前記第1の方向(130;x)と逆の方向の最遠に位置する前記楕円(134;220)の点を表す第2の楕円点(138;228)の2つの座標(x3’、y3’;x1、y1)を決定するステップ(1730)とを備え、
前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)を決定するステップ(1720)は、前記第1の楕円点または前記第1の楕円点の周囲において前記楕円に近似する第1の曲線セグメント(146)の少なくとも1つのパラメータを決定するステップと、前記第1の曲線セグメント(146)の前記少なくとも1つのパラメータに基づいて、前記第1の楕円点(136;226)の前記座標(x1’、y1’;x3、y3)を決定するステップとを含み、
前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)を決定するステップ(1730)は、前記第2の楕円点(138;228)または前記第2の楕円点(138;228)の周囲において前記楕円に近似する第2の曲線セグメント(148)の少なくとも1つのパラメータを決定するステップと、前記第2の曲線セグメント(148)の前記少なくとも1つのパラメータに基づいて、前記第2の楕円点(138;228)の前記座標(x3’、y3’;x1、y1)を決定するステップとを含み、さらに
前記第1の楕円点の前記2つの座標(x1’、y1’;x3、y3)および前記第2の楕円点の前記2つの座標(x3’、y3’;x1、y1)に基づいて、前記楕円の少なくとも1つの楕円パラメータ(xm、ym)を計算するステップ(1740)を備え、
前記少なくとも1つの楕円パラメータ(xm、ym)は、前記楕円の前記形状および/または前記位置に関する情報を表す、方法。 - 図形画像(112;812;1710)内の楕円(134;220)の形状および/または位置に関する情報(122;1780)を決定するための方法(1700)であって、前記画像(112;812;1710)は第1の方向(130;x)と第2の方向(132;y)とを含み、前記方法は、
前記第1の方向(130;x)の最遠に位置する前記楕円(134;220)の点を表す第1の楕円点(136;226)の2つの座標(x1’、y1’;x3、y3)を決定するステップ(1720)と、
前記第1の方向(130;x)と逆の方向の最遠に位置する前記楕円(134;220)の点を表す第2の楕円点(138;228)の2つの座標(x3’、y3’;x1、y1)を決定するステップ(1730)とを備え、
前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)を決定するステップ(1720)は、前記第1の楕円点または前記第1の楕円点の周囲において前記楕円に近似する第1の曲線セグメントを特定するステップと、前記特定された第1の曲線セグメント(146)の少なくとも1つのパラメータを決定するステップと、前記特定された第1の曲線セグメント(146)の前記少なくとも1つのパラメータに基づいて、前記第1の楕円点(136;226)の前記座標(x1’、y1’;x3、y3)を決定するステップとを含み、
前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)を決定するステップ(1730)は、前記第2の楕円点(138;228)または前記第2の楕円点(138;228)の周囲において前記楕円に近似する第2の曲線セグメントを特定するステップと、前記特定された第2の曲線セグメント(148)の少なくとも1つのパラメータを決定するステップと、前記特定された第2の曲線セグメント(148)の前記少なくとも1つのパラメータに基づいて、前記第2の楕円点(138;228)の前記座標(x3’、y3’;x1、y1)を決定するステップとを含み、さらに
前記第1の楕円点の前記2つの座標(x1’、y1’;x3、y3)および前記第2の楕円点の前記2つの座標(x3’、y3’;x1、y1)に基づいて、前記楕円の少なくとも1つの楕円パラメータ(xm、ym)を計算するステップ(1740)を備え、
前記少なくとも1つの楕円パラメータ(xm、ym)は、前記楕円の前記形状および/または前記位置に関する情報を表す、方法。 - コンピュータ上で実行されるときに、請求項32または請求項33に記載の方法を実行するためのコンピュータプログラム。
- 図形画像(112;812)内の楕円の形状および/または位置に関する情報(122)を決定するための装置(100;800)であって、前記図形画像(112;812)は第1の方向(130;x)と第2の方向(132;y)とを含み、前記装置は、
前記第1の方向(130;x)の最遠に位置する前記楕円(134;220)の点を表す第1の楕円点(136;226)の2つの座標(x1’、y1’;x3、y3)を決定し、かつ
前記第1の方向(130;x)と逆の方向の最遠に位置する前記楕円(134;220)の点を表す第2の楕円点(138;228)の2つの座標(x3’、y3’;x1、y1)を決定するための座標決定手段(110;400;830、832、840、842)を備え、
前記座標決定手段(110;420;430;814、830、832、840、842)は、前記第1の楕円点(136;226)または前記第1の楕円点(136;226)の周囲において前記楕円(134;220)に近似する第1の曲線セグメント(146)を特定し、前記特定された第1の曲線セグメント(146)の少なくとも1つのパラメータを決定し、前記特定された第1の曲線セグメント(146)の前記少なくとも1つのパラメータに基づいて、前記第1の楕円点(136;226)の前記座標(x1’、y1’;x3、y3)を決定し、かつ
前記第2の楕円点(138;228)または前記第2の楕円点(138;228)の周囲において前記楕円(134;220)に近似する少なくとも1つの第2の曲線セグメントを特定し、前記特定された第2の曲線セグメント(148)の少なくとも1つのパラメータを決定し、前記特定された第2の曲線セグメント(148)の前記少なくとも1つのパラメータに基づいて、前記第2の楕円点(138;228)の前記座標(x3’、y3’;x1、y1)を決定するように形成され、
前記第1の楕円点(136;226)の前記2つの座標(x1’、y1’;x3、y3)および前記第2の楕円点(138;228)の前記2つの座標(x3’、y3’;x1、y1)に基づいて、少なくとも1つの楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)を計算するための楕円計算手段(120;850)を備え、
前記少なくとも1つの楕円パラメータ(xm’、ym’、a’、b’、α’;xm、ym、a、b、α)は、前記楕円(134;220)の前記形状および/または前記位置に関する前記情報(122)を表す、装置(100;800)。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005047160A DE102005047160B4 (de) | 2005-09-30 | 2005-09-30 | Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild |
PCT/EP2006/009387 WO2007039202A1 (de) | 2005-09-30 | 2006-09-27 | Vorrichtung, verfahren und computerprogramm zum ermitteln einer information über eine form und/oder eine lage einer ellipse in einem graphischen bild |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009510571A true JP2009510571A (ja) | 2009-03-12 |
JP4604120B2 JP4604120B2 (ja) | 2010-12-22 |
Family
ID=37607123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008532660A Expired - Fee Related JP4604120B2 (ja) | 2005-09-30 | 2006-09-27 | 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US7948493B2 (ja) |
EP (1) | EP1789925B1 (ja) |
JP (1) | JP4604120B2 (ja) |
AT (1) | ATE386314T1 (ja) |
DE (2) | DE102005047160B4 (ja) |
WO (1) | WO2007039202A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113436A (ja) * | 2010-11-22 | 2012-06-14 | Future Univ-Hakodate | 画像処理装置 |
JP2013516013A (ja) * | 2009-12-28 | 2013-05-09 | ソフトキネティック ソフトウェア | 頭部認識方法 |
KR20140145464A (ko) * | 2013-06-13 | 2014-12-23 | 삼성전자주식회사 | 객체 표시 방법 및 이를 위한 초음파 장치 |
JPWO2015011799A1 (ja) * | 2013-07-24 | 2017-03-02 | 日本電気株式会社 | 画像認識装置およびプログラム |
JP2017509967A (ja) * | 2014-02-04 | 2017-04-06 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ハフプロセッサ |
US10631825B2 (en) | 2013-03-13 | 2020-04-28 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
US11096668B2 (en) | 2013-03-13 | 2021-08-24 | Samsung Electronics Co., Ltd. | Method and ultrasound apparatus for displaying an object |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006059659B4 (de) * | 2006-12-18 | 2009-12-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zur Erkennung von Schriftzeichen in einem Bild |
DE102006062061B4 (de) * | 2006-12-29 | 2010-06-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera |
US8116519B2 (en) * | 2007-09-26 | 2012-02-14 | Honda Motor Co., Ltd. | 3D beverage container localizer |
US8265425B2 (en) * | 2008-05-20 | 2012-09-11 | Honda Motor Co., Ltd. | Rectangular table detection using hybrid RGB and depth camera sensors |
US20100110051A1 (en) * | 2008-10-30 | 2010-05-06 | Yi Jhao Technology Corporation | Control method for lens drive screen |
US9158983B2 (en) * | 2010-07-08 | 2015-10-13 | E-Image Data Corporation | Microform word search method and apparatus |
US8792728B2 (en) * | 2010-09-27 | 2014-07-29 | Hewlett-Packard Development Company, L.P. | Near-duplicate image detection |
JP4893863B1 (ja) * | 2011-03-11 | 2012-03-07 | オムロン株式会社 | 画像処理装置、および画像処理方法 |
US8625878B2 (en) * | 2011-04-15 | 2014-01-07 | International Business Machines Corporation | Method and system of rail component detection using vision technology |
US9443318B2 (en) * | 2011-08-30 | 2016-09-13 | Megachips Corporation | Line segment and arc detection apparatus |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9265458B2 (en) | 2012-12-04 | 2016-02-23 | Sync-Think, Inc. | Application of smooth pursuit cognitive testing paradigms to clinical drug development |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10241639B2 (en) | 2013-01-15 | 2019-03-26 | Leap Motion, Inc. | Dynamic user interactions for display control and manipulation of display objects |
US9380976B2 (en) | 2013-03-11 | 2016-07-05 | Sync-Think, Inc. | Optical neuroinformatics |
USD759022S1 (en) * | 2013-03-13 | 2016-06-14 | Nagrastar Llc | Smart card interface |
USD758372S1 (en) | 2013-03-13 | 2016-06-07 | Nagrastar Llc | Smart card interface |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US10620709B2 (en) | 2013-04-05 | 2020-04-14 | Ultrahaptics IP Two Limited | Customized gesture interpretation |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9747696B2 (en) | 2013-05-17 | 2017-08-29 | Leap Motion, Inc. | Systems and methods for providing normalized parameters of motions of objects in three-dimensional space |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
KR20150070802A (ko) * | 2013-12-17 | 2015-06-25 | 현대자동차주식회사 | 동공 검출 장치 및 동공 검출 방법 |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
TWI577327B (zh) | 2014-08-14 | 2017-04-11 | 由田新技股份有限公司 | 瞳孔定位方法與裝置及其電腦程式產品 |
US9704038B2 (en) * | 2015-01-07 | 2017-07-11 | Microsoft Technology Licensing, Llc | Eye tracking |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
DE102015204281A1 (de) | 2015-03-10 | 2016-09-15 | Robert Bosch Gmbh | Verfahren zur Kalibrierung einer Kamera für eine Blickrichtungserkennung in einem Fahrzeug, Vorrichtung für ein Kraftfahrzeug mit einer Kamera und mindestens einem weiteren Element und Computerprogrammprodukt |
USD864968S1 (en) * | 2015-04-30 | 2019-10-29 | Echostar Technologies L.L.C. | Smart card interface |
US10319108B2 (en) * | 2017-02-14 | 2019-06-11 | Jx Imaging Arts, Llc | System and method for machine vision object orientation measurement |
US11875012B2 (en) | 2018-05-25 | 2024-01-16 | Ultrahaptics IP Two Limited | Throwable interface for augmented reality and virtual reality environments |
FR3094824B1 (fr) * | 2019-04-05 | 2021-04-23 | Airbus Defence & Space Sas | Procédé pour la localisation d’une cible à partir d’un contour elliptique |
CN113111687B (zh) * | 2020-01-13 | 2024-06-18 | 阿里巴巴集团控股有限公司 | 数据处理方法、系统及电子设备 |
CN111311593B (zh) * | 2020-03-14 | 2023-05-26 | 深圳市维森软件股份有限公司 | 一种多椭圆检测和评估算法、装置及终端 |
CN113643410B (zh) * | 2021-08-24 | 2024-01-23 | 凌云光技术股份有限公司 | 一种用于定位椭圆弧曲线的gui图形控件设计方法及装置 |
CN114972251A (zh) * | 2022-05-25 | 2022-08-30 | 北京航空航天大学杭州创新研究院 | 椭圆定位数据处理方法、装置、设备和计算机可读介质 |
CN117994347B (zh) * | 2024-04-07 | 2024-06-11 | 宝鸡市鹏盛鑫有色金属有限责任公司 | 一种法兰加工钻孔高精度定位方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3069654A (en) * | 1960-03-25 | 1962-12-18 | Paul V C Hough | Method and means for recognizing complex patterns |
EP0697679A3 (en) * | 1994-08-12 | 1998-07-01 | Dassault Systemes of America | Computerized drawing method |
DE19750835C2 (de) * | 1997-11-17 | 2002-06-27 | Frank Klefenz | Verfahren und Einrichtung zur Laufzeitdifferenzenbestimmung von akustischen Signalen |
JP3949333B2 (ja) | 1999-04-12 | 2007-07-25 | 富士通株式会社 | 画像計測方法、画像計測装置、および画像計測プログラム記憶媒体 |
JP4377665B2 (ja) | 2003-12-01 | 2009-12-02 | 本田技研工業株式会社 | 位置検出用マーク、並びに、マーク検出装置、その方法及びそのプログラム |
US8116519B2 (en) | 2007-09-26 | 2012-02-14 | Honda Motor Co., Ltd. | 3D beverage container localizer |
-
2005
- 2005-09-30 DE DE102005047160A patent/DE102005047160B4/de not_active Expired - Fee Related
-
2006
- 2006-09-27 JP JP2008532660A patent/JP4604120B2/ja not_active Expired - Fee Related
- 2006-09-27 EP EP06792286A patent/EP1789925B1/de not_active Ceased
- 2006-09-27 AT AT06792286T patent/ATE386314T1/de not_active IP Right Cessation
- 2006-09-27 WO PCT/EP2006/009387 patent/WO2007039202A1/de active Application Filing
- 2006-09-27 DE DE502006000345T patent/DE502006000345D1/de active Active
-
2007
- 2007-04-03 US US11/732,539 patent/US7948493B2/en active Active
Non-Patent Citations (2)
Title |
---|
CSNG200401209008, 岡部光生,外2名, "楕円成長法による円形物体の自動検出", 電子情報通信学会論文誌, 20021201, 第J85−D−II巻,第12号, p.1823〜1831, JP, 社団法人電子情報通信学会 * |
JPN6010028252, 岡部光生,外2名, "楕円成長法による円形物体の自動検出", 電子情報通信学会論文誌, 20021201, 第J85−D−II巻,第12号, p.1823〜1831, JP, 社団法人電子情報通信学会 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013516013A (ja) * | 2009-12-28 | 2013-05-09 | ソフトキネティック ソフトウェア | 頭部認識方法 |
US9081999B2 (en) | 2009-12-28 | 2015-07-14 | Softkinetic Software | Head recognition from depth image |
JP2012113436A (ja) * | 2010-11-22 | 2012-06-14 | Future Univ-Hakodate | 画像処理装置 |
US10631825B2 (en) | 2013-03-13 | 2020-04-28 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
US11096668B2 (en) | 2013-03-13 | 2021-08-24 | Samsung Electronics Co., Ltd. | Method and ultrasound apparatus for displaying an object |
US10849597B2 (en) | 2013-03-13 | 2020-12-01 | Samsung Electronics Co., Ltd. | Method of providing copy image and ultrasound apparatus therefor |
KR20140145464A (ko) * | 2013-06-13 | 2014-12-23 | 삼성전자주식회사 | 객체 표시 방법 및 이를 위한 초음파 장치 |
KR101703329B1 (ko) | 2013-06-13 | 2017-02-06 | 삼성전자 주식회사 | 객체 표시 방법 및 이를 위한 초음파 장치 |
JPWO2015011799A1 (ja) * | 2013-07-24 | 2017-03-02 | 日本電気株式会社 | 画像認識装置およびプログラム |
US9646221B2 (en) | 2013-07-24 | 2017-05-09 | Nec Corporation | Image recognition apparatus and storage medium |
JP2017509967A (ja) * | 2014-02-04 | 2017-04-06 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ハフプロセッサ |
US10592768B2 (en) | 2014-02-04 | 2020-03-17 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Hough processor |
US10192135B2 (en) | 2014-02-04 | 2019-01-29 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | 3D image analyzer for determining the gaze direction |
US10074031B2 (en) | 2014-02-04 | 2018-09-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | 2D image analyzer |
Also Published As
Publication number | Publication date |
---|---|
US20080012860A1 (en) | 2008-01-17 |
US7948493B2 (en) | 2011-05-24 |
EP1789925A1 (de) | 2007-05-30 |
ATE386314T1 (de) | 2008-03-15 |
DE102005047160B4 (de) | 2007-06-06 |
DE502006000345D1 (de) | 2008-03-27 |
DE102005047160A1 (de) | 2007-04-05 |
JP4604120B2 (ja) | 2010-12-22 |
WO2007039202A1 (de) | 2007-04-12 |
EP1789925B1 (de) | 2008-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4604120B2 (ja) | 図形画像内の楕円の形状および/または位置に関する情報を決定するための装置、方法およびコンピュータプログラム | |
EP0849697B1 (en) | A hand gesture recognition system and method | |
CN103971102B (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
CN113592845A (zh) | 一种电池涂布的缺陷检测方法及装置、存储介质 | |
CN112115893A (zh) | 仪表盘指针读数识别方法、装置、计算机设备及存储介质 | |
CN116664559B (zh) | 基于机器视觉的内存条损伤快速检测方法 | |
US7970186B2 (en) | System, method and computer program product for fingerprint verification | |
WO2015043363A1 (zh) | 飞行器地面运动目标红外图像识别装置 | |
CN108470354A (zh) | 视频目标跟踪方法、装置和实现装置 | |
EP3537375A1 (en) | Image segmentation method, image segmentation system and storage medium, and device comprising same | |
CN105210115B (zh) | 使用2d图像数据来执行手势识别 | |
KR101244220B1 (ko) | 지문인식장치 및 그 지문 인식방법 | |
EP2339507B1 (en) | Head detection and localisation method | |
CN106485651B (zh) | 快速鲁棒性尺度不变的图像匹配方法 | |
CN101295363A (zh) | 从距离图像确定物体姿势的方法和系统 | |
US20190236345A1 (en) | Hand detection method and system, image detection method and system, hand segmentation method, storage medium, and device | |
EP3828896A1 (en) | System and method for diagnosing disease using neural network performing segmentation | |
JP2013051988A (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
CN112102294A (zh) | 生成对抗网络的训练方法及装置、图像配准方法及装置 | |
Wu et al. | Natural scene text detection by multi-scale adaptive color clustering and non-text filtering | |
Li et al. | Sublingual vein extraction algorithm based on hyperspectral tongue imaging technology | |
CN109344758B (zh) | 基于改进局部二值模式的人脸识别方法 | |
JP2010503936A (ja) | 画像処理のための方法および装置 | |
US20080317369A1 (en) | Digital video filter and image processing | |
Zhu et al. | Hand dorsal vein recognition based on shape representation of the venous network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100914 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101004 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4604120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |