KR20070008652A - 촬영된 이미지로부터 원 데이터를 추출하는 방법 - Google Patents

촬영된 이미지로부터 원 데이터를 추출하는 방법 Download PDF

Info

Publication number
KR20070008652A
KR20070008652A KR1020067022013A KR20067022013A KR20070008652A KR 20070008652 A KR20070008652 A KR 20070008652A KR 1020067022013 A KR1020067022013 A KR 1020067022013A KR 20067022013 A KR20067022013 A KR 20067022013A KR 20070008652 A KR20070008652 A KR 20070008652A
Authority
KR
South Korea
Prior art keywords
image
value
data
calculating
point
Prior art date
Application number
KR1020067022013A
Other languages
English (en)
Inventor
마르뗑 르페뷔르
아나스 베나비드
Original Assignee
리얼 아이즈 쓰리디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0402960A external-priority patent/FR2868184B1/fr
Application filed by 리얼 아이즈 쓰리디 filed Critical 리얼 아이즈 쓰리디
Publication of KR20070008652A publication Critical patent/KR20070008652A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 사진 이미지로부터 원 데이터를 추출할 수 있게 하고, 각 픽셀에 대해 이미지 컬러 요소의 조합 V0[C, L]을 측정하는 것과, 각 픽셀에 대해 V<SB>N+1M/SB>[C, L] 값을 계산하는 것과, 상기 계산으로부터 미리 정해진 회수만큼 반복하는 것과, 각 픽셀에서 최종 VNfinal[C, L] 이미지의 값을 고려한 후에, 각 픽셀에 대해 차이값 D[C, L]=VNfinal[C, L]-V0[C, L]을 계산하는 것과, 노이즈 Vs의 문맥상 데이터를 계산하는 것과, 문맥 데이터 Vs의 도움으로 원 데이터 D[C, L]을 정정하는 것과, D*[C, L]을 고려하여 정정된 I*[C, L] 데이터를 계산하는 것과, 원하는 각도로 추출된 데이터를 나타내는 것으로 구성된다.

Description

촬영된 이미지로부터 원 데이터를 추출하는 방법{METHOD FOR EXTRACTING RAW DATA OF A PHOTOGRAPHED IMAGE}
본 발명은 카메라 촬영으로부터 나오는 이미지로부터 가공되지 않은 원 데이터를 추출하는 방법에 관한 것이다.
보다 구체적으로는, 본 발명은 어떤 입사각으로 통신장치에 통합되었든 아니든, 사진 또는 영화 카메라에 의해 촬영된 디지털 이미지로부터, 원하는 화각(view angle)을 따라 이미지로부터 추출된 데이터를 제공하는 방법에 관한 것입니다.
본 발명은, 어떤 입사각 하에서 카메라에 의해 미리 보여지는 디지털화된 그래픽과 텍스트 데이터의 전송 및 저장에 적용되고, 그 후 투영 변형을 정정하거나 예를 들어 수직 입사 또는 어떤 미리 정해진 각도로 카메라 촬영과 상이한 입사각을 따라 보았을 때 보다 개선된 가독성을 갖는 정정된 이미지를 얻기 위해 선택적으로 해상도를 향상시킴으로써 처리된다.
이러한 처리는 예를 들어 셀룰러 라디오 송신기/수신기와 같은 휴대용 통신 단말기에 설치되는 카메라에 의해 촬영된 텍스트 및/또는 그래픽 정보에 가장 적합하다.
물론, 이미지 내에서 프린트된 또는 손으로 쓴 정보와 관련된 원 데이터를 추출하기 위해 그리고 이 데이터로부터 프랑스특허출원 2 840 093에 의해 정정될 영역을 추론하기 위해서, 이 프랑스특허의 출원인은 이미 추출된 원 데이터로서 차이 이미지 D(C, L)(사실, 배경의 광 레벨과 추출되는 데이터의 광 레벨 사이의 대조)를 계산함으로써 정보를 추출하는 것으로 구성된 해결책을 제안하였다. 이러한 차이 이미지로부터 추출되는 값을 선택하기 위해, 쓰레스홀드 값(threshold value)이 사용된다. 이 쓰레스홀드 값 Vs는 따라서 라인의 그리드(사각형 패턴)를 제거하기 위해 기울기(gradient) 쓰레스홀드 값으로서 선택될 수 있다. 그러나, 이 방법은 다음과 같은 결점을 갖고 있다:
라인의 그리드가 원 이미지에 존재하지 않는다면, 값 Vs는 노이즈를 제거하기 위한 쓰레스홀드 값에 대응한다. 만족할 만한 결과를 제공하지 않는 종래의 히스토그램 기술을 사용해서는 이러한 쓰레스홀드 값을 얻기 어렵다는 것이 알려져있다.
만일 그리드 라인이 존재하면, 패턴을 찾기 위한 정확한 쓰레스홀드 값이 측정될 수 있지만, 이러한 쓰레스홀드 값은 정보를 추출하기 위한 쓰레스홀드 값으로서 항상 사용될 수는 없다. 사실, 무작위 조명 조건에 기인하는 흐린 이미지와 같이 그리고 확산 포화(채도)와 같이 예상할 수 없는 이미지 콘트라스트가 달라지기 때문에, 이 쓰레스홀드 값은 항상 그리드 라인 또는 노이즈를 완전히 제거하지는 않는다.
컬러 이미지의 경우에, 세 채널(적, 녹, 파)이 고려될 필요가 있고, 채널 마다 쓰레스홀드 값을 또는 모든 채널에 대해 하나의 쓰레스홀드 값을 가져야 할지가 분명하지 않다.
또한, 원 문서를 촬영하는 카메라에 의해 전달된 정보로부터 재생된 텍스트나 그래픽을 사람이 읽고 해석하는 것은, 문자를 텍스트를 포함하는 문자를 인식하고 그래픽(모양과 크기의 관찰을 필요로 함)의 해석을 허용하기 위해 수직 입사각 가까이에서 또는 수직 입사각 하에서 촬영이 수행되는 것을 가정하는 것이 알려져 있다.
사실, 어떤 입사각으로 문서를 카메라로 볼 때, 생성된 이미지는 투영에 의한 변형을 갖는다: 따라서, 카메라로부터 떨어진 거리로부터 출발할 때, 문자 인식에 필요하고 따라서 문서를 이해하는데 필요한 세부사항이 소실되었다는 것이 보고된다.
이러한 문제점을 해결하기 위해, 출원인은 이미 카메라에 의해 촬영된 이미지 내에 존재하는 식별가능한 문맥상(contextual) 데이터를 추출하는 것과
이러한 문맥상 데이터에 의해 카메라가 전달하는 추출된 데이터, 즉 가공되지 않은 원 데이터를 정정하는 것으로 구성된 해결책을 제안하였고, 이러한 정정된 데이터는 메모리에 저장되고 읽을 수 있게 표시되도록 수신인에게 전송된다.
원 데이터의 정정을 수행하기 위해 사용되는 문맥상 데이터는 문서에서 초기에 존재하는 또는 미리 보고된 패턴(물리적인, 플롯으로 그려진 또는 프린트된 외형)에 영향을 끼칠 수 있고, 그 특정 매개변수는 사전에 알려져 있다.
정정 프로세스는 다음과 같은 단계를 포함하여 이루어질 수 있다:
- 카메라가 촬영한 원 이미지 내의 패턴을 검색하는 단계,
- 원 이미지가 포함하고 있고 앞서 언급한 매개변수에서의 변화를 통해 일어나는 패턴의 변형으로부터, 원 이미지에 의해 나타나는 투영에 의한 변형을 계산하는 단계,
- 원 데이터 또는 투영에 의한 변형에 따라 달라지는 추출 데이터에 가해지는 정정을 측정하는 단계,
- 미리 측정된 정정을 고려하면서, 정정된 데이터를 포함하는 이미지를 생성하는 단계.
패턴 검색 단계는 다음과 같이 구성된 제1 검색 시퀀스에 의해 얻어진다:
● 이미지에 존재하는 경계를 탐지하는 단계,
● 미리 정해진 값을 초과하는 길이로 된 경계를 추출하는 단계,
● 충분한 표면 영역(미리 정해진 값보다 더 큼)을 가지고 이미지의 엣지를 건드리지 않고, 발견된 경계에 의해 경계가 정해지는 영역을 탐지하는 단계.
발견된 각 영역에 대해, 이러한 프로세스는 주축에서 영역의 외부의 지점을 찾기 위해 영역의 주축을 측정하는 계산 단계를 포함하고, 외부 원뿔의 구성은 외부 지점으로부터 생기고, 경계로부터 이 지점을 추출하고, 그 외부 법선은 외부 지점에서 출발하여 외부 법선과 만나는 벡터와 마주보고, 라인의 계산은 추출된 지점의 추축에 의해 생기고, 네 개의 라인이 발견되었을 때, 사변형의 네 개의 선단의 계산은 네 개의 라인으로부터 얻어지고, 사변형의 표면영역이 영역의 표면영역과 가까이 있을 때, 상동관계의 계산은 사변형을 미리 설정된 비율을 갖는 직사각형으로 변형시킨다.
또한, 여기에서 사용되는 상동관계의 계산은 매우 복잡하다는 것이 발견되었다. 사실, 최종 이미지의 각 픽셀에 대해, 초기 이미지의 영역은 측정될 필요가 있고, 상동관계에 따라 픽셀이 가져야 하는 위치에 최종 이미지의 값을 할당하기 위해, 휘도(luminance)와 색차(chrominance) 값이 읽혀진다.
이제, 이미지 내의 쓰여진 텍스트 부분은 일반적으로 이미지 픽셀의 20% 이상을 포함하지 않고, 따라서 나머지 80%의 이미지의 픽셀은 관심 대상이 아니라는 것을 알 수 있다.
도 1은 본 발명의 방법에서 사용되는 주요 매개변수가 표시되어 있는 카메라에 의한 문서의 촬영을 나타내는 개략도.
도 2는 문서의 이미지의 평면에서의 도 1에 나타난 시각의 투영도.
도 3은 두 개의 소멸점 중 하나가 무한대로 투영되는 도 2 형태의 투영도.
도 4는 사변형 내부의 특징에 관계된 다이어그램.
도 5는 투영에 의한 기하학적 불변식을 나타내는 도면.
도 6은 정정 이미지를 얻기 위해 본 발명에 따라 이미지 처리 프로세스를 위한 작동 단계의 개략도.
도 7 내지 도 11은 도 6에 도시된 프로세스에 따라 수행되는 계산을 나타내는 다이어그램.
도 12는 로그 좌표계로 한 쌍의 히스토그램, H_피트 및 H_범프의 예를 나타내는 도면.
도 13은 카메라의 주요 기하학적 매개변수를 나타내는 개략도.
도 14는 소멸점이 없는 경우 정해진 물리적 형상의 비율을 갖는 직사각형 패턴을 구성하기 위한 원리를 나타내는 다이어그램.
따라서, 본 발명의 목적은 이러한 문제를 해결하는 것이라는 것이 명백하다.
이 목적을 위해, 우선, 본 발명은 추출된 원 데이터를 정정하는데 사용되는 노이즈의 문맥상 데이터와, 필요로 하고 있는 패턴에 상관하지 않고 그리드 라인이 존재하는지 여부를 아는 것에 관여하지 않으면서 프린트되거나 손으로 쓴 정보가 추출될 수 있는 쓰레스홀드 값 Vs를 정확히 측정하는 하는 방법을 제공한다. 나아가, 유일한 패턴 검색 단계에 대해 프로세스에 필요한 요구사항을 줄이기 위해 이러한 쓰레스홀드 값은 패턴을 찾기 위한 기울기 쓰레스홀드 값으로서 사용될 수 있다. 컬러 이미지에 대해 정보를 추출하려면, 컬러 정보를 추출하기 위해 독특한 쓰레스홀드 값을 계산하기 위해 이미지의 각 컬러 성분이 고려되어야 한다.
그레이 레벨을 갖는 이미지가 고려되며, 이는 이미지의 세 가지 컬러 채널(적-녹-파)의 조합으로 또는 이 채널 중 하나로 구성될 수 있다.
보다 구체적으로, 본 발명은 카메라 촬영으로부터 나오는 이미지로부터 원 데이터를 추출하는 방법을 제공하며, 이는 다음의 단계를 포함하는 것을 특징으로 한다:
a) 관계식 V0[C,L]L]=αRed[C,L]+βGreen[C,L]+γBlue[C,L](α, β, γ는 관계식 α+β+γ=1(α,β,γ≥0)를 만족시키는 계수)로 표현되는 이미지의 컬러의 요소의 조합으로 구성되는 값 V0[C,L]을 이미지의 열 C 및 라인 L에 의해 위치된 각 지점에 대해 측정하는 단계
b) 이미지의 각 지점에 대해, 쓰레스홀드 값 VBack .(C, L)을 계산하는 단계
c) 이미지의 각 지점에 대해, D[C,L]=VBack .-V0(C,L)(다크 데이터/브라이트 배경) 또는 V0(C,L)-VBack .(브라이트 데이터/다크 배경)인 차이값 D[C, L]을 계산하는 단계
d) 하나 이상의 콘트라스트 히스토그램으로부터 및/또는 원 데이터의 국부적인 최대값이 노이즈를 포함할 확률 q로부터, 추출된 원 데이터 D[C,L]를 정정하는데 사용되는 노이즈 문맥상 데이터로 구성된 쓰레스홀드 값 Vs를 계산하는 단계
e) 추출된 데이터 D[C,L]로 귀결되는, 노이즈 문맥상 데이터 Vs에 의해 원 데이터 D[D,L]를 정정하는 단계
f) 이미지의 각 지점에 대해, 정정된 원 데이터 D*[C,L]을 고려하여 정정된 값 I*[C,L]을 계산하는 단계
g) 추출된 데이터 또는 요구되는 각도 하에서 데이터를 포함하고 있는 이미지를 선택적으로 제공하는 단계
바람직하게,
- 배경 값 VBack .는 다음의 단계를 포함하는 작동 시퀀스에 의해 측정될 수 있다:
- 이미지의 각 지점에 대해, 값 VN[C,L]과 [C,L]에서 중심을 갖는 대칭구조 아이템에서의 VN의 상이한 평균값 사이에서 최대값(브라이트 배경위의 다크 데이터) 또는 최소값(다크 배경위의 브라이트 데이터)인 값 VN +1[C,L]을 계산하는 단계와,
- 미리 정해진 회수(N_final)로 상기의 계산을 반복하는 단계와, 그 후 배경 이미지 VBack .의 값으로서 최종 이미지 VN _ final의 값을 고려하는 단계
- 값 VN +1[C,L]의 계산은, 관계식
에 의해 얻을 수 있다.
- 배경 이미지 VBack .는 다음의 단계를 포함하는 작동 시퀀스에 의해 또한 측정될 수 있다:
- 이미지의 각 지점에 대해, 지점 [2C+1/2, 2L+1/2]에서 중심을 갖는 VN의 국부 평균값과 더 많은 수의 픽셀(여기서는 16개의 인접하는 픽셀)을 포함하는 적어도 하나의 국부 평균값 사이에서 최대값(브라이트 배경위의 다크 데이터) 또는 최소값(다크 배경위의 브라이트 데이터)인 값 VN +1[C,L]의 계산을 포함하는 VN 보다 네 배 더 작은 이미지 VN +1을 생성하는 단계와,
- 미리 정해진 회수(N_final)로 상기 계산을 반복하는 단계와,
- 초기 이미지 V0와 크기가 같은 이미지 VBack .의 값을 얻기 위해 이미지 VN_Final의 값을 보간하는 단계.
- 상기 값 VN +1[C,L]은,
을 포함하는 작동 시퀀스에 의해 측정될 수 있다.
- 원 데이터 D[C,L]은 일반적으로 지원 매체 앞에서 카메라의 임의의 위치에 기인하는 각각의 변형에 의해 영향을 받는다. 추출된 원 데이터의 각각의 변형은 기하학적 문맥상 데이터를 추출하는 알려진 방법으로 정정될 수 있다. 유사하게, 이러한 추출된 원 데이터는 또한 다음과 같은 쓰레스홀딩에 의해 제거될 수 있는 휘도 및/또는 전자 노이즈에 의해 영향을 받을 수 있다:
노이즈 문맥상 데이터 Vs를 계산한 후에, 이미지의 각 지점에 대해, D[C,L]<VS이면 D*[C,L]=0 이고, D[C,L]≥VS이면 값 D[C,L]이 유지되어 D*[C,L]=D[C,L]이 되거나 D[C,L]-VS로 대체되어 D*[C,L]=D[C,L]-VS가 되는 방식으로 추출되는 값 D*[C,L]을 측정하기 위해, 값 D[C,L]을 쓰레스홀드 값 VS과 비교한다.
공제 원리에 따라 추출된 데이터를 포함하는 이미지 I*(p)의 생성은, 255일 수 있는 Imax(브라이트 배경의 값)로 I*(p)=Imax-f.D*(p)(다크 데이터/브라이트 배경)을 계산하거나, 0일 수 있는 Imin으로 I*(p)=Imin+f.D*(p)(브라이트 데이터/다크 배경)을 계산함으로써 초래된다.
쓰레스홀드 값 Vs는 원 데이터 D[C,L]을 정정하는데 사용되는 노이즈 문맥상 데이터이다. 이는 원 데이터의 어떤 국부적 최대값이 노이즈를 포함할 확률 q에 기초하는 방법에 따라 계산될 수 있다. 브라이트 배경 위의 다크 정보의 경우, 이 방법은 다음과 같은 작동 단계(괄호 사이에 표시되는 브라이트 배경 위의 다크 정보를 위한 탐색에 대한 특정 배치)를 포함한다:
- 그레이 이미지 I(컬러 채널 또는 휘도)의 각 픽셀 p에 대해 다음의 단계가 수행되는 제1 단계
a) 0<|d|<D 인 각 방향 d에 대해,
다음의 조건이 만족되면:
- [p-d, p+d]에서 I의 볼록함, 즉,
브라이트 배경위의 다크 데이터의 경우에 0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)가 충족되거나,
- [p-d, p+d]에서 I의 오목함, 즉,
다크 배경위의 브라이트 데이터의 경우에 0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)가 충족되면,
G(p,d)=(I(p+d)+I(p-d))/2 가 계산되고,
충족되지 않으면 G(p,d)=0 이 되는 단계,
b) 0<|d|<D 인 모든 방향 d에 대해 G(p,d)의 최대값과 동일한 값 S(p)가 계산되는 단계.
S(p)의 계산에 대한 대안으로서, S(p)는 D(p)로 대체될 수 있고, D(p)는 원 데이터에 대응하고,
- 모든 픽셀 p에 대해 S(p)의 최대값과 동일한 값 Smax가 계산되는 제2 단계
- s가 0 내지 Smax인 모든 값에 대해 히스토그램 H(s)가 0으로 리셋되는 s제 단계
- 제거될 노이즈를 포함하는 국부적 최대 픽셀에 대해 콘트라스트 히스토그램을 계산하는 제4 단계
상기 계산은 다음의 단계를 포함하여 구성된다:
● 이미지 S(p) 내의 각 픽셀 p에 대해, S(p)가 국부적 최대값인 경우 H(S(p))는 관계식 H(S(p))←H(S(p))+1에 따라 증가되는 단계와,
● 등식 S=Smax 및 N=1/q가 결정되고, H(S)가 N 보다 작은 한 S는 S-1로 대체되고, S의 최종값은 Smin으로 불리고, 노이즈를 포함하는 픽셀 수의 수학적 기대값이 1 보다 크거나 동일하도록 N은 국부적 최대 픽셀의 최소의 수인 단계와,
● 1/2≤r≤1 에서 공식 Vs=r.Smin+(1-r).Smax 에 따라 값 Vs가 계산되는 단계.
쓰레스홀드 값 Vs는 또한 다음의 방법에 따라 계산될 수 있다:
1) 다음의 작동 단계를 포함하는 피트의 히스토그램 H_pits를 계산하는 제1 단계:
a) 이미지 I의 각 픽셀 p에 대해, 다음과 같이 수행된다:
i. 각 방향 d에 대해, 0<|d|<D:
만약, 조건
- [p-d, p+d]에서 I의 볼록함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)
(다크 데이터/브라이트 배경)
또는,
- [p-d, p+d]에서 I의 오목함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)
(브라이트 데이터/다크 배경)
이 만족되면,
G(p,d)=(I(p+d)+I(p-d))/2가 계산된다.
만족되지 않으면 G(p, d)=0 이다.
ii. 식 S(p)=G(p,d)의 최대값이 모든 방향 d에 대해 계산된다, 0<|d|<D
S(p)의 계산에 대해 대안으로서, S(p)는 원 데이터에 대응하는 값 D(p)로 대체될 수 있다.
b) 피트의 최대값 S_pits_max 가 계산되며, 이는 모든 픽셀 p에 대한 S(p)의 최대값과 동일하다.
c) 피트 히스토그램 H_pits 는 0과 피트의 최대값 S_pits_max 사이의 각각의 s값에 대해 0으로 리셋된다.
d) 이미지 S(p)의 각 픽셀 p에 대해, 다음의 계산이 수행된다:
i. 만일 S(p)가 국부적인 최대값이라면,
H_pit(S(p))는 다음과 같은 방법으로 증가된다:
H_pit(S(p))←H_pit(S(p))+1
2) 범프 히스토그램 H_bumps를 계산하기 위한 제2 단계는 다음의 작동 단계를 포함한다:
a) 이미지 I의 각 픽셀 p에 대해, 다음과 같이 수행된다:
i. 각 방향 d에 대해, 0<|d|<D:
만약, 아래의 조건,
- [p-d, p+d]에서 I의 볼록함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)
(다크 데이터/브라이트 배경)
또는,
- [p-d, p+d]에서 I의 오목함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)
(브라이트 데이터/다크 배경)
이 만족되면,
G(p,d)=(I(p+d)+I(p-d))/2가 계산된다.
만족되지 않으면 G(p,d)=0 이다.
ii. S(p)=G(p,d)의 최대값이 모든 방향 d에 대해 계산된다, 0<|d|<D
앞에서와 같이, S(p)의 이러한 계산에 대한 대안으로서, 값 S(p)는 원 데이터(브라이트/다크 배경)에 대응하는 값 D(p)로 대체될 수 있다.
b) 범프의 최대값 S_bumps_max 가 계산되며, 이는 모든 픽셀 p에 대한 S(p)의 최대값과 동일하다.
c) 범프 히스토그램 H_bumps(s) 는 0과 범프의 최대값 S_bumps_max 사이의 각각의 s값에 대해 0으로 리셋된다.
d) 이미지 S(p)의 각 픽셀 p에 대해, 다음의 계산이 수행된다:
i. 만일 S(p)가 국부적인 최대값이라면,
H_bumps(S(p))는 다음과 같은 방법으로 증가된다:
H_bumps(S(p))←H_bumps(S(p))+1
3) 피트 H_pits와 범프 H_bumps 히스토그램을 중첩하는 제3 단계는 다음의 작동 단계를 포함하여 이루어진다:
a) 다음의 식에 따라 S_max를 계산하는 단계:
Smax = Max(피트의 최대값 S_pits_max, 범프의 최대값 S_bumps_max)
b) 다음의 식에 따라 H_max를 계산하는 단계:
H_max = 모든 S의 값에 대해 피트의 최대값 H_pits(S)과 범프의 최대값 H_bumps(S)
c) 다음의 식에 따라 s0를 계산하는 단계:
s0 = H_pits(s) = H_max 또는 H_bumps(s) = H_max가 되는 s의 최대값
d) s = s0 + 1 이 계산되고 0<α<1/2 이 되도록 α가 선택되는 단계:
|ln(1+H_pits(s))-ln(1+H_bumps(s))|<α.ln(1+H_max) 이 되는 한,
s ← s + 1 이 수행된다(ln은 네이피어(Napier)의 로그 함수).
마지막으로, 값 Smin은 1씩 증가되는 s의 최종값에 의해 측정된다.
4) 다음의 관계에 따라 추출 쓰레스홀드 Vs의 값을 계산하는 단계:
Vs = r.Smin + (1-r).Smax, 여기서 1/2<r<1
원 데이터를 추출하는 방법의 단계 b)는 여러번 반복되고, 따라서 S(p)의 계산에 의해 앞서 언급한 양 방법에 의해 계산되는 쓰레스홀드 값은 추출된 원 데이터가 효율적으로 정정되도록 하지 않는다.
이러한 결점은 S(p)를 D(p)로 대체하는 것으로 구성된 대안을 이용함으로써 진압될 수 있다.
따라서, 이 경우에, 원 데이터의 어떤 국부적 최대값이 노이즈를 포함할 확률 q가 알려질 때, 노이즈 문맥상 데이터를 추출하기 위한 프로세스는 다음의 단계를 포함할 수 있다:
- 모든 픽셀 p=[C,L]에 대해 D(p)의 최대값과 동일하고, D는 정정될 원 데이터의 이미지인, 값 Smax가 계산되는 제1 단계
- 0 과 Smax 사이의 모든 S 값에 대해 H(S)=0으로 히스토그램이 리셋되는 제2 단계
- 이미지 D(p)에서 각 픽셀 p에 대해, D(p)가 국부적 최대값인 경우, H(D(p))는 관계식 H(D(p))←H(D(p))+1에 따라 증가되는 제3 단계
- 등식 S=Smax 및 N=1/q가 결정되고, H(S)가 N 보다 작은 한 S는 S-1로 대체되고, S의 최종값은 Smin으로 불리는 제4 단계
- 1/2≤r≤1 에서 공식 Vs=r.Smin+(1-r).Smax 에 따라 노이즈 문맥상 데이터 Vs의 값이 계산되는 제5 단계
만일 원 데이터의 어떤 국부적 최대값이 노이즈를 포함할 확률 q가 알려져 있지 않다면, 노이즈 문맥상 데이터 Vs를 추출하는 프로세스는 다음의 단계를 포함할 수 있다:
1) 피트 히스토그램 H_pits를 계산하는 제1 단계는 다음의 작동 단계를 포함한다:
a) 피트의 최대값 S_pits_max가 계산되는 단계. 이는 모든 픽셀 p에 대해 D(p)의 최대값과 동일하며, D는 추출된 다크-온-브라이트-배경 원 데이터의 이미지이다.
b) 0과 피트의 최대값 S_pit_max 사이의 s의 각 값에 대해 피트 히스토그램 H_pits는 0으로 리셋되는 단계.
c) 이미지 D(p)의 각 픽셀 p에 대해,
D(p)가 국부적 최대값이라면
H_pit(D(p))가 H_pit(D(p))←H_pits(D(p))+1 인 방식으로 증가되는 계산이 수행되는, Hpits의 값을 측정하는 단계.
2) 범프 히스토그램 H_bumps를 계산하는 제2 단계는 다음의 작동 단계를 포함한다:
a) 피트의 최대값 S_bumpsmax이 계산되는 단계. 이는 모든 픽셀 p에 대해 D(p)의 최대값과 동일하며, D는 추출된 브라이트-온-다크-배경 원 데이터의 이미지이다.
b) 0과 범프의 최대값 S_bumps_max 사이의 각 s에 대해 범프 히스토그램 H_bump(s)는 0으로 리셋된ㄴ 단계.
c) 이미지 D(p)의 각 픽셀 p에 대해,
D(p)가 국부적 최대값이라면,
H_bumps(D(p))가 H_bumps(D(p))←H_bumps(D(p))+1 인 방식으로 증가되는 단계.
3) 피트 히스토그램 H_pits 및 범프 히스토그램 H_bumps 을 중첩하는 제3 단계는 다음의 작동 단계를 포함한다:
a) 식 S_max = Max (피트의 최대값 S_pits_max, 범프의 최대값 S_bumps_max)에 의해 S_max가 계산되는 단계.
b) 식 H_max = 모든 S 값에 대해 피트의 최대값 H_pits(S) 및 범프의 최대값 H_bumps(S) 에 따라 계산되는 단계.
c) H_pits(S) = H_max 또는 H_bumps(s) = H_max가 되는 식 s0 = S의 최대값에 따라 s0 가 계산되는 단계.
d) s=s0+1 이 계산되고 α는 0<α<1/2이 되도록 선택되고,
|ln(1+H_pits(s)-ln(1+H_bumps(s))|<α.ln(1+H_max) 가 되는 한, s←s+1 이 수행되고(ln은 네이피어의 로그함수), 마지막으로, 값 Smin이 1씩 증가되는 s의 최종값에 의해 측정되는 단계.
4) 관계식 Vs=r.Smin + (1-r).Smax (1/2<r≤1)에 따라 노이즈 문맥상 데이터 Vs를 계산하는 단계.
물론, 적, 녹, 파 컬러 채널을 갖는 컬러 이미지로부터의 정보가 추출될 필요가 있다. 각 컬러 채널에 대해 앞서 설명한 방법의 단계 후에, 각 채널에 대한 쓰레스홀드를 측정하는 것이 이어진다. 적, 녹, 파 채널로부터 컬러 정보를 추출하는 것과, 쓰레스홀드가 초과되었다는 것이 보여지는 각 픽셀에서 적, 녹, 파 값을 추출함으로써 최종 컬러 이미지로 조합하는 것이 수행될 수 있다.
또한, 어떤 문맥상 데이터를 나타내고 미리 설정된 비율을 포함하는 패턴(물리적, 좌표로 표시된, 또는 프린트된 윤곽선)을 위한 방법을 찾는 문제점을 제거하기 위해, 본 발명은 이미지의 일부 문맥상 데이터를 측정하는 데 사용되는 윤곽선의 이미지에 존재하는 패턴의 네 개의 식별되는 지점에 의해 형성된 사변형의 실제 높이/폭 비율을 측정하는 것을 제안한다.
이를 위해, 출원인은 어떤 입사각 하에서 카메라에 의해 촬영된 사진으로부터, 원하는 화각을 따라 앞서 언급한 형태의 이미지로부터 추출되는 정보를 제공하는 방법을 제공하며, 이 방법은 다음의 구성을 포함한다:
- 문맥상 데이터를 한정하는 카메라에 의해 촬영된 이미지 내에 존재하는 패턴의 적어도 네 개의 식별되는 특징적인 지점을 탐색하는 단계,
- 미리 정해진 기준에 따라 선택적으로 데이터를 추출하는 단계,
- 상대적인 기준 지점에 대해 네 지점의 상대적 위치로부터 원 이미지에 또는 추출된 데이터에 또는 데이터를 포함하는 이미지에 가해진 기하학적 변형을 계산하는 단계,
- 기하학적 변형에 의존하는, 원 이미지에 또는 추출된 데이터에 가해지는 정정을 측정하는 단계,
- 측정된 정정을 고려하여 추출된 데이터를 포함하는 이미지를 생성하는 단계.
이 방법은, 물체와 동일한 비율을 갖는 정정된 이미지를 얻기 위해, 상기 방법은 상기 지점에 의해 한정된 사변형의 실제 높이/폭 비율을 측정하는 것과, 정정된 이미지의 생성에서 비율 r을 고려하는 것을 포함하는 것을 특징으로 한다.
보다 구체적으로, 사변형(직사각형)의 비를 측정하는 것은 다음의 단계를 포함하는 프로세스에 따라 수행된다:
- 이미지에 존재하는 패턴의 네 개의 식별되는 특징적인 지점을 탐색하는 단계,
- 네 지점에 의해 한정되는 사변형의 측면으로부터 소멸 지점을 측정하고, 소멸 지점을 연결하는 수평선을 측정하는 단계,
- 수평선에서 카메라의 광학 중심 O의 투영 지점 F의 좌표를 측정하는 단계,
- 소멸 지점과 투영 지점 F 사이의 거리로부터 그리고 투영 지점 F와 광학 중심 O 사이의 거리로부터 카메라 베이스 지점(패턴의 평면에서 카메라의 광학 중심의 수직 투영)를 계산하는 단계,
- 광학 중심, 투영 지점 F 및 카메라 베이스 지점 사이의 거리로부터 초점 거리를 계산하는 단계,
- 카메라 베이스 지점으로부터의 통상의(타원형의) 거리에서, 카메라 베이스 지점과 소멸 라인에 위치된 지점 O1, O2, P1, P2 뿐만 아니라 소멸 지점을 연결하는 라인과 소멸 라인 사이에서의 교차 지점 M1, N1, M2, N2의 좌표를 계산하는 단계,
- 직사각형 O1, O2, P1, P2는 패턴의 평면에서 연장하는 사각형의 투영이라는 것을 고려하여 미리 계산된 좌표로부터 초기 패턴의 측면의 비율을 계산하는 단계.
만일 동일한 쌍의 소멸 라인이 소멸지점에서 교차하고, 다른 두 소멸 라인은 평행하는(소멸 지점은 무한대로 투영됨) 경우에는, 카메라의 미리 설정된 초점 거리 f로부터 비율 r의 계산이 수행될 것이다.
모든 소멸 지점이 무한대로 투영되면, 비율 r은 사변형의 인접하는 측면의 길이의 비율과 같다.
본 방법의 중요한 이점은 사변형의 인접하는 측면의 직교성이 부족하여도 이에 매우 민감하지 않다는 점에 있고, 이러한 직교성의 부족은 사변형이 손으로 그려지는 패턴인 경우에 종종 일어난다. 사실, 종래의 해결책은 이러한 결함에 매우 민감하다(직교성이 부족한 경우의 불안정성).
이 해결책의 또 다른 이점은 문자의 정렬이 없는 텍스트가 재생될 수 있다는 점에 있다.
불필요한 계산을 피함으로써 그리고 이미지 내에서 쓰여진 텍스트에 관현 픽셀에 계산을 적용함으로써 그리고 이미 수행된 계산을 가능한 한 많이 재사용함으로써 상동관계의 계산을 경감할 수 있도록, 출원인은 다음의 단계를 포함하는 작동 시퀀스를 제안한다:
- 추출된 데이터를 포함하는 초기 이미지의 유용한 부분을 격리함으로써, 그리고 이 유용한 부분의 픽셀에 동일한 바이너리 값(0 또는 1)을 할당함으로써 정정되는 영역의 초기(변형된) 바이너리 마스크를 생성하는 단계,
- 임의의 다각형 형상을 기준 다각형 형상으로 변형하는 것에 기초하여, 초기 마스크의 직접적인 상동관계 변형에 의해 이상적인 바이너리 마스크를 계산하는 단계,
- 이상적인 바이너리 마스크의 유용한 부분의 각 픽셀(u, v)에 대해, 역 상동관계에 의해 초기 이미지의 위치(x, y)를 측정하고, 초기 이미지 내의 (x, y) 보간된 값에 의해 픽셀(u, v)에서 최종 이미지의 값을 측정하는 단계.
바람직하게, 역 상동관계의 계산은 이상적인 마스크의 각 픽셀의 라인과 열의 역 상동관계에 의한 예비 계산을 포함할 수 있다. 양 라인의 교차점을 계산함으로써 초기 이미지 내에서 주어진 픽셀의 위치를 추론할 수 있다.
본 발명의 실시예는 비한정적인 예로서 첨부된 도면을 참고하여 이하 설명될 것이다.
도 1에 도시된 예에서, 카메라로 촬영될 원 문서는 평평한 지지 매체에 수평으로 위치된다.
카메라는 정해진 높이에서 지지 매체와 문서의 평면 위에 위치되고, 문서쪽으로 향하는 카메라의 축은 기울어져 있다(여기에서, 입사각은 약 30도).
카메라에 의해 촬영된 문서의 이미지는 카메라의 광학축에 수직으로 연장하는 이미지 평면에 위치된다.
지지 매체의 평면에서 카메라의 광학 중심(C)의 직각 투영은 카메라의 베이스로 불린다.
지지 매체의 평면에 평행하는 중심(C)을 지나가는 평면은 지지 매체의 수평선이다.
문서 DT의 직사각형 패턴은 이미지에서 사변형 A, B, C, D(도 2)를 제공하고, 선분 DA 및 CB가 지점 F2에서 교차하는 두 라인(소멸 라인)에 의해 생성되는 동안, 선분 DC 및 AB는 지점 F1에서 교차하는 두 개의 라인(소멸 라인)에 의해 생긴다. 선분 F1F2를 생기게 하는 라인은 수평선이다.
도 2에 다음과 같이 나타나 있다:
X는 카메라의 베이스이다(문서의 평면에서 광학 중심(C)의 투영).
M1은 라인 (AD)와 (F1X)의 교차점이다.
N1은 라인 (BC)와 (F1X)의 교차점이다.
M2는 라인 (AB)와 (F2X)의 교차점이다.
N2는 라인 (CD)와 (F2X)의 교차점이다.
δ는 축(F1,X) 및 (F2,X)에서 지점(X)로부터 측정된 일반적인 거리를 나타내는 양의 상수이다.
i는 입사각도이다.
E는 (FX)에 평행하는 주축을 갖는 타원이다; 타원의 장축은 길이δ/cos(i)를 갖고, 단축은 길이δ를 갖는다.
O1 및 P1은 타원(E)을 갖는 (F1,X)의 교차점이다.
O2 및 P2는 타원(E)을 갖는 (F2,X)의 교차점이다.
O는 이미지의 중심이다.
F는 라인(F1,F2)에 카메라의 광학 중심(O)의 수직 투영이다.
본 발명에 의한 방법에 따라, 원 패턴을 형성하는 직사각형의 물리적 형상 비율 r의 계산은 다음의 세 가지 작동 시퀀스 중 하나에 따라 이루어진다.
1) 지점 F1 및 F2가 존재하는 경우, 선분 AB, BC, CD, DA는 평행하지 않는다. 이 경우, 작동 시퀀스는 다음의 단계를 포함하여 이루어진다:
- 이미지(O)의 중심을 수평선(F1,F2)에 투영함으로써 지점(F)의 좌표를 계산하는 제1 단계
- 아래의 관계식을 이용하여 지점(F)에 대한 거리인 dist(X,F)에 의해 카메라의 베이스의 위치를 계산하는 제2 단계:
이것은 세 단계로 아래와 같은 증명으로부터 얻어진다:
a) 카메라의 베이스와 수평선 사이의 각은 90도이고 다음의 내용을 추론할 수 있다.
b) F1 및 F2 사이의 각도는 90도이고 다음의 내용을 추론할 수 있다.
여기서 g = OF/cos(i)이고 j는 F1 및 F2 사이의 각도이며, 다음을 얻을 수 있다.
c) XF에 대한 최종 공식은 a)ii.와 b)ii. 관계를 합침으로써 얻어진다.
- 아래와 같은 관계를 가지고 초점 거리 f를 계산하는 제3 단계:
(상기 a)i.로부터 얻음)
- 아래의 식에 의해 표현되는 입사각 i를 계산하는 제4 단계:
(상기 a)i.로부터 얻음)
- 앞서 계산된 값으로부터 지점 M1, N1, O1, 및 P1의 좌표계를 측정하는 제5 단계
- 앞서 계산된 값으로부터 지점 M2, N2, O2, 및 P2의 좌표계를 측정하는 제6단계
- 교차된 비율을 사용하여, 그리고 직사각형 O1, O2, P1, P2가 아래의 관계식에 따라 베이스에 중심이 정해진 패턴의 평면에서 연장하는 사각형의 투영이라는 사실에 의해, 물리적 형상 비율 r을 계산하는 제7 단계:
이것은 [O1,P1]과 [02,P2]가 길이가 같은 두 선분의 투영이라는 사실에서 기인하는 것이다: [O1,P1] 및 [02,P2]는 선분으로 사용될 수 있고, 선분 [M1,N1] 및 [M2,N2]의 상대적 길이는 교차된 비율을 이용하여 측정될 수 있고, 이로부터 r을 끌어낼 수 있다.
2) 선분 중 두 선분이 평행하는 경우(교차점이 무한대로 투영된다)(도 3)
이 경우, 다음의 관계식에 의해 비율 r을 얻을 수 있다:
이 식에서 f는 카메라의 초점 거리이다(이 초점 거리 f는 미리 계산된다는 것을 이해하여야 한다).
3) 소멸 지점이 없는 경우(선분 AB, BC, CD, DA이 두 개씩 평행한다)
이 경우, 비율 r은 단순히 다음과 같다.
이러한 관계식은 투영에 의한 기하학에서의 불변식에 기초하고, 특히 네 지점의 교차된 비율에 기초하며, 이 관계식들은 도 5에서 표현되며, 도 5는 입사각이 상이한 광학 중심 O*를 갖는 카메라에 의해 촬영된 동일한 물체의 두 개의 시각 A*B*C*D* - A*1B*1C*1D*1을 보여준다.
지점 A*, B*, C*, 및 D*로부터, 아래와 같은 제1 시리즈의 교차된 비율을 얻을 수 있다.
비슷하게, 지점 A*1, B*1, C*1, 및 D*1 으로부터, 아래와 같은 제2 시리즈의 교차된 비율을 얻을 수 있다.
교차된 비율의 보존은 다음과 같이 표현된다.
지점 중 하나가, 예를 들어 지점 A가 무한대로 투영되는 경우, 비율 A*B*/A*D*는 1과 동일한 것으로 여겨진다.
앞서 언급한 바와 같이, 본 발명은 또한 상동관계 계산, 즉 이미지가 텍스트를 포함하고 있을 때 지금까지 사용되었던 계산의 복잡함을 줄일 수 있는, 이미지를 새로운 형태로 만드는 방법을 제공한다.
도 6은 이러한 새로운 형태를 형성하는 모드의 상이한 단계들을 아래와 같이 나타낸다:
a) 프레임(또는 페이지)이 탐지되었던 그리고 텍스트(쓰여진) 부분이 추출되었던 이미지로부터 변형된 바이너리(binary) 마스크를 계산하는 제1 단계. 이 단계는 이미지의 유용한 부분을 둘러싸는 사변형 외부에 있는 모든 픽셀뿐만 아니라 쓰여진 상태에 대응하지 않는 픽셀에 영(zero)의 값을 미치는 것으로 구성되어 있다.
사변형 내부 또는 외부의 지점의 위치는 도 4에 도시된 방법에 의해 측정될 수 있다.
이 도면은 x,y 좌표 기준 평면에서 사변형 A', B', C', D'를 나타낼 뿐만 아니라, 이 사변형 내부에서 좌표계 (xp,yp) 및 (xo,yo)의 두 지점(P, G)을 나타낸다. G 지점은 사변형 A', B', C', D'의 중력 중심으로 구성될 수 있고, 보다 간단히는 대각선의 중심으로, 예를 들어 선분 B'D'의 중심으로 구성될 수 있다.
선분 A'B'-B'C'-C'D'-D'A'는 라인 D1, D2, D3, D4에 의해 각각 생성된다.
이러한 라인의 표면, 보다 일반적으로는 라인 Di(i=1, 2, 3, 4)는 다음과 같은 형태이다:
ai.x + bi.y + ci = 0
ai, bi, ci 는 상수이다.
지점 P가 사변형의 경계선에 대해 G와 동일한 면에 항상 있기만 하면 지점 P는 따라서 사변형 내부에 있다(각각 두 부분으로 평면을 분할하는 라인 D1-D4를 한정함): 이것은 다음과 같이 말할 수 있다:
ai.xp + bi.yp + ci 및 ai.xo + bi.yo + co 는 동일한 싸인을 갖고, i는 세트{1, 2, 3, 4}에 속한다. 이는 다음과 같은 형태로 기재할 수 있다:
∀i∈{1, 2, 3, 4}(ai.xp + bi.yp + ci)(ai.xo + bi.yo + co)≥0
b) 직접적인 상동관계에 의해 이상적인 마스크를 계산하는 제2 단계.
여기에서 상동관계에 의해 한 지점의 이미지를 계산하기 위한 원리를 나타내는 도 7을 참고할 수 있을 것이다. 이 도면에서, 앞서 설명한 방법을 사용하여 측정된 사변형 P1, P2, P3, P4와 이 사변형 내부에 위치된 좌표계(u,v)의 지점이 나타나 있다.
지점 O가 존재한다면, 이는 라인(P1,P2) 및 라인(P3,P4)의 교차점이다. 지점 Q는 라인(P1,P4) 및 라인(P2,P3)의 교차점이다. 지점 I는 선분 OP와 (P1,P4)의 교차점이고, 지점 J는 선분 QP와 (P3,P4)의 교차점이다.
상동관계에 의해 사변형(P1-P4)이 도 8에서 볼 수 있는 직사각형 H(P1), H(P2), H(P3), H(P4)으로 전환될 수 있다는 것을 알 수 있다.
이 도 8에 좌표 H(I), H(J)를 갖는 지점(x,y)도 도시되어 있고, 직사각형의 길이 Dx와 폭 Dy이 도시되어 있다.
교차된 비율의 보전은 다음과 같다:
H(P)의 좌표는 다음의 식으로부터 나올 수 있다.
라인의 이미지는 단순히 원 라인의 양 지점의 이미지를 결합하는 선분으로 구성되기 때문에, 상동관계에 의해 라인의 이미지를 계산하는 것은 이러한 계산으로부터 나오는 것이다.
이상적인 마스크의 계산은 다음의 프로세스에 따라 수행된다:
(i, j)를 변형된 바이너리 마스크를 둘러싸는 네 개의 서브픽셀을 갖는 변형된 바이너리 마스크에서 쓰는(writing) 것에 대응하는 픽셀로 정한다(도 9):
직접적인 상동관계에 의해 A, B, C, 및 D를 이러한 서브픽셀의 이미지라고 가정한다(도 10). A, B, C, 및 D는 따라서 사변형이다. 사변형이 포함하는 최소의 직사각형을 고려해보자. 이 직사각형에 포함된 모든 픽셀은 예1에 대해 "참(true)"값으로 설정된다.
이상적인 바이너리 마스크는 이로부터 얻을 수 있다. 그런 다음, u, v가 픽셀인 (u±1/2, v±1/2) 형태의 좌표를 갖는 지점의 이미지를 계산하기 위해 메커니즘이 설정되어야 한다.
이를 위해, 좌표 평면(u±1/2, v±1/2)의 지점 P가 고려된다. 이 지점은 두 개의 중간 라인의 교차점에 의해 측정된다: 좌표 u±1/2의 수직선과 좌표 v±1/2의 수평선. 지점 P의 이미지는 상동관계에 의해 얻은 수평선 및 수직선의 이미지의 교차점에 있다.
따라서, 이러한 중간 라인(및 중간 열)의 이미지는 미리 계산된다. 이러한 이미지가 미리 계산되자마자, 서브픽셀의 이미지가 중간 라인의 두 개의 미리 계산된 이미지의 교차점에 의해 얻어진다.
c) 제3 역 상동관계 단계.
최종 이미지를 계산하기 위해, 바이너리 마스크의 각 픽셀에 대해, 초기 이미지 내에서 이 픽셀의 위치를 찾음으로써 계산되는 강도 값(intensity value)이 할당되어야 한다: 이를 위해, 역 상동관계 계산이 수행될 필요가 있다.
따라서, 도 7 및 도 8의 기호를 반복함으로써, (x,y)는 이상적인 마스크의 픽셀로 여겨진다. 이 픽셀은 라인 y와 열 x의 교차점에 있다. 변형된 이미지 내의 이 픽셀의 위치는 역 상동관계에 의해 라인과 열의 이미지의 교차점을 얻음으로써 얻어진다.
라인(QJ)과 라인(OI)의 매개변수는 교차점 P를 계산하기 위해 찾아야한다. 그 후 지점 I 및 J의 위치가 계산되어야 한다. 이 결과는 예를 들어 거리 JP3 및 IP1을 찾음으로써 쉽게 얻어진다.
이는 다음과 같은 형태의 교차된 비율을 사용함으로써 가능하다:
이러면, 지점 P의 위치를 계산할 수 있게 된다.
실제로, 이미지는 이상적인 마스크의 라인 및 열의 역 상동관계에 의해 미리 계산된다. 주어진 픽셀의 위치는 두 라인의 교차점을 계산함으로써 원 이미지에서 끌어낼 수 있다(이 예에서는, 두 개의 라인 (OI) 및 (QJ)).
물론, 본 발명은 이러한 단 하나의 방법으로 한정되지 않는다.
d) 최종 이미지를 생성하기 위한 제4 단계.
(u,v)를 이상적인 마스크의 픽셀로 한다. 변형된 초기 이미지의 위치는 라인 v와 열 u의 미리 계산된 역 이미지의 교차점에 의해 계산된다. 찾아진 위치는 (x,y)로 불린다. 강도 값은 초기 이미지의 지점(x, y)에서 삽입(보간)될 픽셀(u,v)에 할당되어야 한다. 이 작업을 수행하기 위해, 예를 들어 쌍일차 보간법(interpolation)이 사용된다.
도 11에 도시된 것과 같은 지점(x,y)을 둘러싸는 픽셀이 고려되면, 보간된 강도는 아래의 공식에 의해 주어진다:
I(x,y) = (y-j)[(i+1-x)I(i,j+1)+(x-i)I(i+1,j+1)]+(j+1-y)[(i+1-x)I(I,j)+I(I+1,j)]
그레이 레벨이 최종 이미지에서 측정된다 것을 이해하면서, 최종 이미지 내의 픽셀(u,v)은 강도 I(x,y)를 가질 것이다.
바람직하게, 노이즈로부터 추출한 정정된 데이터를 포함하는 이미지는 공제 원리(subtractive principle)에 따라 계산될 수 있다.
휘도(luminance)는 기본색(적, 녹, 파)의 강도를 조합한 것과 동일하다는 것을 알 수 있다: 예를 들어 L = 0,5G + 0,3R + 0,2B 이다.
따라서, 본 발명의 방법에 의해, 각 픽셀에 대해, 휘도를 추출하고, 원 데이터 D(p)를 추출하고, 노이즈의 문맥상 데이터 Vs를 계산하고, 노이즈의 정정된 원 데이터 D*(p)를 노이즈의 문맥상 데이터에 의해 추출하고, 다음과 같은 계산식에 의해 정정된 휘도 이미지를 생성하는 것이 연속적으로 진행된다:
바람직하게, 컬러 이미지의 경우, 최종 이미지에 대해 필요로 하는 색을 얻기 위해 필터에 의한 것처럼 결정된 색차(chrominances)의 콘트라스트를 배경색으로부터 제거함으로써 공제 원리가 사용될 수 있다.
예를 들어, 노이즈의 문맥상 데이터 Vs는 휘도 이미지에 기초하여 추출될 수 있고, 정정된 원 데이터는 채널 DR, DG, DB의 원 데이터를 계산함으로써 컬러 채널의 노이즈(D*R, D*G, D*B)로부터 추출될 수 있고, 이는 관찰된 색차 RGB와 배경(VR Back ., VG Back ., VB Back .)의 색차 사이의 콘트라스트를 나타내며, Vs의 수단에 의해 쓰레스홀딩(thresholding)하며, 최종적으로 정정된 색차 이미지를 생성한다.
예를 들어, 픽셀에서, 지원 매체의 화이트 영역에 대응하는 추정된 색차는 (VR Back., VG Back ., VB Back .)=(160, 140, 110)이고, 이 픽셀은 색차 (VR 0, VG 0, VB 0)=(120, 115, 105)인 블루 쓰기 영역을 나타낸다. 광학 노이즈의 정정된 화이트/블루 콘트라스트는 (D*R, D*G, D*B)=(160-120, 140-115, 110-105)=(40, 25, 5)인 것으로 한다. 지원 매체의 화이트 영역을 나타내는 최종 이미지의 픽셀의 색차를 (RB, GB, BB)=(255, 255, 255)로 설정하면, 최종 이미지의 이 픽셀의 정정된 색차는 f 인자에 의해 앞서 가중된 콘트라스트를 화이트로부터 뺌으로써 측정되고, 따라서 픽셀 내 최종 이미지의 정정된 색차(R*, G*, B*)는, f=1 인 경우, (R*, G*, B*)=(RB-D*R, GB-D*G, BB-D*B)=(255-40, 255-25, 255-5)=(215, 230, 250)이 될 것이다.
앞서 언급한 f 인자는 예를 들어 시험 패턴에서 표시되는 기준 컬러를 가지고 획득된 컬러를 정렬시키는데 사용될 수 있다.
물론, 본 발명은 앞서 언급한 실시예에 제한되지 않는다.
따라서, (원 데이터 D(p)의 국부적인 최대값이 노이즈에 의해 생성될 가능성 q를 미리 아는 것에 기초하여) 차이 이미지 D(p)의 각 픽셀로부터 손으로 쓴 또는 프린트된 정보가 추출될 수 있는 쓰레스홀드 값 Vs를 측정하기 위한 일반적인 프로세스는 다음과 같은 두 가지 결점을 갖고 있다:
- 우선, 이미지로부터 정보를 추출하기 위해 각 카메라 모듈에 대해 확률 q가 실험적으로 알려져야 한다. 이것은 알려지지 않은 카메라 모듈에 의해 포획된 이미지로부터 유도되는 추출 정보가 신뢰할 만한 정보(예를 들어, 팩스에 의해 수신인에게 전송하기 위해 서버에서 수신된 이미지로부터 정보를 추출하는 것)로 고려되는 것을 방지한다.
- 다음으로, 정보가 다크-온-브라이트 배경(dark-on-bright-background) 정보 인지 또는 그 반대인지의 여부를 미리 아는 것이 필수이다.
따라서, 본 발명은 앞서 언급한 두 가지 단점을 피할 수 있는 개선된 방법을 제공한다. 이러한 개선에 의해, 프린트되거나 손으로 쓴 정보가 차이 이미지 D(p)(D[C,L]와 유사함)로부터 추출될 수 있는 쓰레스홀드 값 Vs를 정확히 측정할 수 있고, 또한 정보가 다크-온-브라이트 배경인지 그 반대인 브라이트-온-다크 배경인지의 여부를 측정할 수 있다.
이미지의 세 가지 컬러 채널(적, 파, 녹)의 조합이거나 이러한 세 가지 채널 중 하나인 그레이 레벨 이미지 I(p)를 고려함으로써, 도 12를 참고로 본 발명에 따른 방법은 다음과 같은 단계를 포함하고 있다:
1) 피트 히스토그램 H_pits를 계산하는 제1 단계는 다음과 같은 작동 단계를 포함한다:
a) 이미지 I의 각 픽셀 p에 대해, 다음과 같이 수행된다:
i. 각 방향 d에 대해, 0<|d|<D:
만약, 조건
- [p-d, p+d]에서 I의 볼록함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)
(다크 데이터/브라이트 배경)
또는,
- [p-d, p+d]에서 I의 오목함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)
(브라이트 데이터/다크 배경)
이 만족되면,
G(p,d)=(I(p+d)+I(p-d))/2가 계산된다.
만족되지 않으면 G(p,d)=0 이다.
ii. S(p)=G(p, d)의 최대값이 모든 방향 d에 대해 계산된다, 0<|d|<D
b) 피트의 최대값 S_pits_max 가 계산되며, 이는 모든 픽셀 p에 대한 S(p)의 최대값과 동일하다.
c) 피트 히스토그램 H_pits 는 0과 피트의 최대값 S_pits_max 사이의 각각의 s값에 대해 0으로 리셋된다.
d) 이미지 S(p)의 각 픽셀 p에 대해, 다음의 계산이 수행된다:
i. 만일 S(p)가 국부적인 최대값이라면,
H_pit(S(p))는 다음과 같은 방법으로 증가된다:
H_pit(S(p))←H_pit(S(p))+1
2) 범프 히스토그램 H_bumps를 계산하기 위한 두 번째 단계는 다음의 작동 단계를 포함한다:
a) 이미지 I의 각 픽셀 p에 대해, 다음과 같이 수행된다:
i. 각 방향 d에 대해, 0<|d|<D:
만약, 조건
- [p-d, p+d]에서 I의 볼록함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)
(다크 데이터/브라이트 배경)
또는,
- [p-d, p+d]에서 I의 오목함, 즉,
0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)
(브라이트 데이터/다크 배경)
이 만족되면,
G(p,d)=(I(p+d)+I(p-d))/2가 계산된다.
만족되지 않으면 G(p,d)=0 이다.
ii. S(p)=G(p,d)의 최대값이 모든 방향 d에 대해 계산된다, 0<|d|<D
b) 범프의 최대값 S_bumps_max 가 계산되며, 이는 모든 픽셀 p에 대한 S(p)의 최대값과 동일하다.
c) 범프 히스토그램 H_bumps(s) 는 0과 범프의 최대값 S_bumps_max 사이의 각각의 s값에 대해 0으로 리셋된다.
d) 이미지 S(p)의 각 픽셀 p에 대해, 다음의 계산이 수행된다:
i. 만일 S(p)가 국부적인 최대값이라면,
H_bumps(S(p))는 다음과 같은 방법으로 증가된다:
H_bumps(S(p))←H_bumps(S(p))+1
3) 피트 H_pits와 범프 H_bumps 히스토그램을 중첩하는 제3 단계는 다음의 작동 단계를 포함하여 이루어진다:
a) 다음의 식에 따라 S_max를 계산하는 단계:
Smax = Max(피트의 최대값 S_pits_max, 범프의 최대값 S_bumps_max)
b) 다음의 식에 따라 H_max를 계산하는 단계:
H_max = 모든 S의 값에 대해 피트의 최대값 H_pits(S)과 범프의 최대값 H_bumps(S)
c) 다음의 식에 따라 s0를 계산하는 단계:
s0 = H_pits(s) = H_max 또는 H_bumps(s) = H_max가 되는 s의 최대값
d) s = s0 + 1 이 계산되고 0<α<1/2 이 되도록 α가 선택되는 단계:
|ln(1+H_pits(s))-ln(1+H_bumps(s))|<α.ln(1+H_max) 이 되는 한,
s = s + 1 이 수행된다(ln은 네이피어(Napier)의 로그 함수).
마지막으로, 값 Smin은 1씩 증가되는 s의 최종값에 의해 측정된다.
4) 다음의 관계에 따라 추출 쓰레스홀드 Vs의 값을 계산하는 단계:
Vs = r.Smin + (1-r).Smax, 여기서 1/2<r≤1
5) β>0 일 때 다음의 작동 단계를 포함하는, H_pits와 H_bumps를 비교하는 단계:
a) 다음 관계로부터 값 N_pits를 계산:
s=Smin으로부터 s=S_pits_max까지에 대해, N_pits = sum of H_pits(s)β
b) 다음 관계로부터 값 N_bumps를 계산:
s=Smin으로부터 s=S_bumps_max까지에 대해, N_bumps = sum of H_bumps(s)β
c) N_pits가 N_bumps 보다 작으면, 다크-온-브라이트 백그라운드 정보가 추출되어야하고 그렇지 않으면 브라이트-온-다크 백그라운드 정보가 추출되어야 한다.
6) 다음의 작동 단계를 포함하는 휘도 정보 L(p)를 추출하는 단계:
a) 공지의 방법으로 D를 계산
b) 차이 이미지 D(p)에서 각 픽셀 p에 대해,
D(p)>Vs 라면, D(p)는 관련이 있는 것으로 고려되고 추출된다.
i. 정보가 다크-온-브라이트 배경 정보이면, 값 L(p)=Imax-f.D(p)를 계산하고, Imax는255일 것이다.
ii. 또는, 값 L(p)=Imax+f.D(p)가 계산된다면, Imin은 0일 것이다.
만일 D(p)가 관련이 없는 것으로 고려되는 경우에는,
i. 정보가 다크-온-브라이트 배경 정보라면, L(p)의 값은 Imax(브라이트 배경)와 동일할 것이다.
ii. 아니라면, L(p)의 값은 Imin(다크 배경)과 동일할 것이다.
예로서, 아래의 매개변수에 의해 만족할만한 결과를 얻을 수 있다:
D=3
α=20%
r=85%, 추출에 대해서
f=5
본 발명은 또한 규정된 물리적 형상 비율 r=CD/AD과, 이미지(예를 들어 지점 D) 내의 투영된 직사각형의 규정된 지점과, 규정된 초점 거리(f)와 경사각(π/2)-i(i는 입사각도)와 카메라의 축 주위의 회전각 α와 i≠0 인 경우에 존재하는 소멸 지점(예를 들어 F1) 중 하나에 대하여 규정된 경사각(β)을 갖는 카메라에 의한 알려진 투영 거리(예를 들어 CD)를 갖는 직사각형(A, B, C, D)의 이미지의 시뮬레이션에 관한 것이다. 초점에 묶인 ox, oy, oz 좌표 기준 시스템을 갖는 초점과 광학축으로, 이러한 상이한 매개변수는 개략적으로 카메라를 나타내는 도 13에 나타나 있다.
이 문제 해결방법은 도 2 및 도 3 및 도 14에 관한 다음 세 단계를 포함한다:
- 생성되어야 하는 새로운 이미지 내에서 알려지지 않은 세 지점 A, B, C(지점 D는 규정됨)의 위치를 계산하는 제1 단계. 지점들은 새로운 이미지에 투영되어야 하는 패턴의 물리적 형상 비율 r과 시뮬레이션 되어야하는 카메라의 위치(초점 거리, 경사각(tilt angle), 회전각, 경사각(skew angle))와 일치하여야 한다.
- 시뮬레이션된 이미지의 계산된 패턴에서 원 이미지의 패턴에 포함된 정보를 투영하기 위해 상동관계를 계산하는 제2 단계.
- 상동관계로 원 이미지로부터 계산된 윤곽 내에서 새로운 이미지의 색차와 휘도를 측정하는 제3 단계.
패턴의 알려지지 않은 세 지점의 계산은 다음과 같은 세 단계를 고려한다:
만일 i≠0 이라면(적어도 하나의 소멸 지점이 있음), 계산은 다음과 같은 네 단계를 포함한다:
1. OX = f.tan(i)
2. OF = f/tan(i)
3. 지점 X와 지점 F는 이미지 O의 중심을 통과하여 교차하고 수직에 대해 각 α를 형성하는 라인에 위치된다.
4. 지점 F1은 FF1 = ftan(β)/sin(i)가 되도록 위치된다.
a) 만일 β≠0 이라면(두 개의 소멸지점)
i) 지점 F2는 FF2=(OF.XF)/FF1 이 되도록 위치된다.
ii) 지점 M1, C, N1, O1, P1, O2, P2, 및 N2는 지점 X, F1, F2(β≠0인 경우), D 및 거리 DC로부터 나온다.
iii) 지점 M2는 다음과 같은 관계를 얻기 위해 위치된다.
b) 만일 β≠0 이라면(오직 하나의 소멸지점: F1=F)(도 3)
i) 다음의 식이 되도록 지점 A는 라인(DF)에 위치된다.
ii) 지점 B는 BF=CF.(AF/DF)가 되도록 라인(FC)에 위치된다.
c) 만일 i=0이면(소멸 지점이 없음)(도 14)
1) 지점 C는 지점 D와 거리 DC 및 회전각 α에 의해 위치된다.
2) 지점 B는 (A, B, C, D)가 직사각형이 되도록 위치된다.

Claims (41)

  1. 카메라 촬영에서 나오는 이미지로부터 원 데이터를 추출하는 방법으로서,
    - 이미지의 열 C와 라인 L에 의해 위치된 각 지점에 대해 이미지의 컬러 요소의 조합으로 구성된 값 V0[C,L]을 측정하는 단계;와
    - 이미지의 각 지점에 대해, 쓰레스홀드 값 VBack .(C,L)을 계산하는 단계;와
    - 이미지의 각 지점에 대해, D[C,L]=VBack .-V0(C,L)(다크 데이터/브라이트 배경) 또는 V0(C,L)-VBack .(브라이트 데이터/다크 배경)인 차이값 D[C,L]을 계산하는 단계;와
    - 하나 이상의 콘트라스트 히스토그램으로부터 및/또는 원 데이터의 국부적인 최대값이 노이즈를 포함할 확률 q로부터, 추출된 원 데이터 D[C,L]를 정정하는데 사용되는 노이즈 문맥상 데이터로 구성된 쓰레스홀드 값 Vs를 계산하는 단계;와
    - 추출된 데이터 D*[C,L]로 귀결되는, 노이즈 문맥상 데이터 Vs에 의해 원 데이터 D[D,L]를 정정하는 단계;와
    - 이미지의 각 지점에 대해, 정정된 원 데이터 D*[C,L]을 고려하여 정정된 값 I*[C,L]을 계산하는 단계; 및
    - 추출된 데이터 또는 요구되는 각도 하에서 데이터를 포함하고 있는 이미지를 선택적으로 제공하는 단계;를 포함하는 방법.
  2. 제1항에 있어서,
    배경 값 VBack .는:
    - 이미지의 각 지점에 대해, 값 VN[C,L]과 [C,L]에서 중심을 갖는 대칭구조 아이템에서의 VN의 상이한 평균값 사이에서 최대값(브라이트 배경위의 다크 데이터) 또는 최소값(다크 배경위의 브라이트 데이터)인 값 VN +1[C,L]을 계산하는 단계;와
    - 미리 정해진 회수(N_final)로 상기의 계산을 반복하는 단계와, 그 후 배경 이미지 VBack .의 값으로서 최종 이미지 VN _ final의 값을 고려하는 단계;를 포함하는 작동 시퀀스에 의해 측정되는 것을 특징으로 하는 방법.
  3. 제2항에 있어서,
    값 VN +1[C,L]의 계산은, 관계식
    에 의해 달성되는 것을 특징으로 하는 방법.
  4. 제1항에 있어서,
    배경 이미지 VBack .는,
    - 이미지의 각 지점에 대해, 지점 [2C+1/2, 2L+1/2]에서 중심을 갖는 VN의 국부 평균값과 더 많은 수의 픽셀을 포함하는 적어도 하나의 국부 평균값 사이에서 최대값(브라이트 배경위의 다크 데이터) 또는 최소값(다크 배경위의 브라이트 데이터)인 값 VN +1[C,L]의 계산을 포함하는 VN 보다 네 배 더 작은 이미지 VN +1을 생성하는 단계;와
    - 미리 정해진 회수(N_final)로 상기 계산을 반복하는 단계;와
    - 초기 이미지 V0와 크기가 같은 이미지 VBack .의 값을 얻기 위해 이미지 VN_Final의 값을 보간하는 단계;를 포함하는 작동 시퀀스에 의해 측정되는 것을 특징으로 하는 방법.
  5. 제4항에 있어서,
    상기 값 VN +1[C,L]은,
    을 포함하는 작동 시퀀스에 의해 측정되는 것을 특징으로 하는 방법.
  6. 제1항에 있어서,
    원 데이터 D[C,L]에 존재하는 휘도 및/또는 전자 노이즈를 제거하는 단계를 포함하고, 이 노이즈를 제거하는 단계는:
    D[C,L]<VS이면 D*[C,L]=0 이고, D[C,L]≥VS이면 값 D[C,L]이 유지되어 D*[C,L]=D[C,L]이 되거나 D[C,L]-VS로 대체되어 D*[C,L]=D[C,L]-VS가 되는 방식으로 추출되는 값 D*[C,L]을 측정하기 위해, 노이즈 문맥상 데이터 VS를 계산하는 것과 이미지의 각 지점에 대해 값 D[C,L]을 쓰레스홀드 값 VS과 비교하는 것으로 구성되고,
    이미지 I*(p)의 생성은,
    255일 수 있는 Imax(브라이트 배경의 값)로 I*(p)=Imax-f.D*(p)(다크 데이터/브라이트 배경)을 계산하거나,
    0일 수 있는 Imin으로 I*(p)=Imin+f.D*(p)(브라이트 데이터/다크 배경)을 계산하여 얻는 공제 원리에 따라 추출된 데이터를 포함하는 방법.
  7. 제1항에 있어서,
    VS의 계산은,
    - 추출되는 원 데이터 D(p)를 계산하는 단계;와
    - D(p)로부터 값 Smax를 계산하는 단계;와
    - D(p)를사용하는 콘트라스트 히스토그램을 계산하는 단계와 상기 히스토그램과 확률 q로부터 값 VS를 추정하는 단계;로 이루어진 작동 단계를 포함하는 것을 특징으로 하는 방법.
  8. 제7항에 있어서,
    D(p)는 추정값 S(p)로 대체되는 것을 특징으로 하는 방법.
  9. 제8항에 있어서,
    S(p)의 계산은:
    0<|d|<D 인 각 방향 d에 대해,
    - [p-d, p+d]에서 I의 볼록함, 즉,
    브라이트 배경위의 다크 데이터의 경우에 0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)가 충족되거나,
    - [p-d, p+d]에서 I의 오목함, 즉,
    다크 배경위의 브라이트 데이터의 경우에 0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)가 충족되면,
    G(p,d)=(I(p+d)+I(p-d))/2 가 계산되고,
    충족되지 않으면 G(p,d)=0 이 되는 단계;와,
    - 0<|d|<D 인 모든 방향 d에 대해 G(p,d)의 최대값과 동일한 값 S(p)가 계산되는 단계;로 이루어진 작동단계를 포함하는 것을 특징으로 하는 방법.
  10. 제7항에 있어서,
    콘트라스트 히스토그램과 값 VS에 대한 상기 계산은:
    - 이미지 D(p) 내의 각 픽셀 p에 대해, D(p)가 국부적 최대값인 경우 H(D(p))는 관계식 H(D(p))←H(D(p))+1에 따라 증가되는 제1 단계와,
    - 등식 S=Smax 및 N=1/q가 결정되고, H(S)가 N 보다 작은 한 S는 S-1로 대체되고, S의 최종값은 Smin으로 불리고, 노이즈를 포함하는 픽셀 수의 수학적 기대값이 1 보다 크거나 동일하도록 N은 국부적 최대 픽셀의 최소의 수인 제2 단계와,
    - 1/2≤r≤1 에서 공식 Vs=r.Smin+(1-r).Smax 에 따라 값 Vs가 계산되는 제3 단계를 포함하는 것을 특징으로 하는 방법.
  11. 제1항에 있어서,
    Vs의 계산은:
    - 추출되는 원 데이터 Dpits(p)(다크 데이터/브라이트 배경) 및 Dbumps(p)(브라이트 데이터/다크 배경)을 계산하는 단계;와
    - 값 Spits_max(Dpits(p)의 피트의 최대값) 및 Sbumps_max(Dbumps(p)의 범프의 최소값)을 계산하는 단계;와
    - Dpits(p)와 Dbumps(p)로부터 콘트라스트 히스토그램 H_pits 및 H_bumps를 계산하는 단계;와
    - Hpits와 Hbumps 히스토그램으로부터 Vs의 값을 추정하는 단계;로 이루어진 작동 단계를 포함하는 것을 특징으로 하는 방법.
  12. 제11항에 있어서,
    Dpits(p)와 Dbumps(p)는 Spits(p)와 Sbumps(p)로 대체되는 것을 특징으로 하는 방법.
  13. 제1항에 있어서,
    Spits(p)와 Sbumps(p)의 값은:
    이미지 I의 각 픽셀 p에 있어서,
    0<|d|<D 인 각 방향 d에 대해,
    - [p-d, p+d]에서 I의 볼록함, 즉,
    0≤λ≤1에 대해 I(p+(1-2λ)d)≤λI(p-d)+(1-λ)I(p+d)가 되는(다크 데이터/브라이트 배경) 조건이 충족되면,
    G(p,d)=(I(p+d)+I(p-d))/2 가 계산되고,
    충족되지 않으면 G(p,d)=0 이 되고,
    0<|d|<D 에서 모든 방향 d에 대해, 식 Spits(p)=G(p,d)의 최대값,이 계산되는 Spits(p)의 값의 측정단계;와
    이미지 I의 각 픽셀 p에 있어서,
    0<|d|<D 인 각 방향 d에 대해,
    - [p-d, p+d]에서 I의 오목함, 즉,
    0≤λ≤1에 대해 I(p+(1-2λ)d)≥λI(p-d)+(1-λ)I(p+d)가 되는(브라이트 데이터/다크 배경) 조건이 충족되면,
    G(p,d)=(I(p+d)+I(p-d))/2 가 계산되고,
    충족되지 않으면 G(p,d)=0 이 되고,
    0<|d|<D 에서 모든 방향 d에 대해, 식 Sbumps(p)=G(p,d)의 최대값,이 계산되는 Sbumps(p)의 값의 측정단계;로 이루어진 작동 시퀀스에 따라 측정되는 것을 특징으로 하는 방법.
  14. 제1항에 있어서,
    Hpits 및 Hbumps 히스토그램의 계산과 Vs의 계산은:
    0과 피트의 최대값 S_pit_max 사이의 s의 각 값에 대해 피트 히스토그램 H_pits는 0으로 리셋되고,
    이미지 D(p)의 각 픽셀 p에 대해,
    i. D(p)가 국부적 최대값이라면
    H_pit(D(p))가 H_pit(D(p))←H_pits(D(p))+1 인 방식으로 증가되는 계산이 수행되는, Hpits의 값을 측정하는 단계;와
    0과 범프의 최대값 S_bumps_max 사이의 각 s에 대해 범프 히스토그램 H_bump(s)는 0으로 리셋되고,
    이미지 D(p)의 각 픽셀 p에 대해,
    D(p)가 국부적 최대값이라면
    H_bumps(D(p))가 H_bumps(D(p))←H_bumps(D(p))+1 인 방식으로 증가되는 계산이 수행되는, Hbumps의 값을 측정하는 단계;를 포함하고,
    Vs를 계산하는 것은:
    - S_max가 식 S_max = Max (피트의 최대값 S_pits_max, 범프의 최대값 S_bumps_max)에 의해 계산되는 단계;와,
    H_max가 식 H_max = 모든 S 값에 대해 피트의 최대값 H_pits(S) 및 범프의 최대값 H_bumps(S) 에 따라 계산되는 단계로서, s0 는 H_pits(S) = H_max 또는 H_bumps(s) = H_max가 되는 식 s0 = S의 최대값에 따라 계산되고, s=s0+1 이 계산되고 α는 0<α<1/2이 되도록 선택되고, |ln(1+H_pits(s)-ln(1+H_bumps(s))|<α.ln(1+H_max) 가 되는 한, s←s+1 이 수행되고(ln은 네이피어의 로스함수), 마지막으로, 값 Smin이 1씩 증가되는 s의 최종값에 의해 측정되는 단계;를 포함하는, 피트 H_pits 와 범프 H_bumps 히스토그램을 중첩하는 단계;와
    - 관계식 Vs=r.Smin + (1-r).Smax (1/2<r≤1)에 따라 추출 쓰레스홀드 Vs를 계산하는 단계;를 포함하는 것을 특징으로 하는 방법.
  15. 제1항에 있어서,
    이미지로부터 또는 데이터를 포함하는 이미지의 추출된 데이터가 특정 입사각 하에서 카메라로 촬영된 이미지로부터 원하는 화각에 따라 도시되는 경우,
    - 문맥상 데이터를 한정하는 카메라에 의해 촬영된 이미지 내에 존재하는 패턴의, 이미지의 코너로 구성될 수 있고 적어도 네 개의 식별되는 특징적인 지점을 탐색하는 단계;와
    - 미리 정해진 기준에 따라 선택적으로 데이터를 추출하는 단계;와
    - 상대적인 기준 지점에 대해 네 지점의 상대적 위치로부터 원 이미지에 또는 추출된 데이터에 또는 데이터를 포함하는 이미지에 가해진 기하학적 변형을 계산하는 단계;와
    - 기하학적 변형에 의존하는, 원 이미지에 또는 추출된 데이터에 또는 데이터를 포함하는 이미지에 가해지는 정정을 측정하는 단계;와
    - 측정된 정정을 고려하는 정정된 이미지를 생성하는 단계;를 포함하는 방법.
  16. 제15항에 있어서,
    물체와 동일한 비율을 갖는 정정된 이미지를 얻기 위해, 상기 방법은 상기 지점에 의해 한정된 사변형의 실제 높이/폭 비율을 측정하는 것과, 정정된 이미지의 생성에서 비율 r을 고려하는 것을 포함하는 것을 특징으로 하는 방법.
  17. 제16항에 있어서,
    상기 사변형은 직사각형의 투영이고, 직사각형의 비를 측정하는 것은,
    - 패턴의 윤곽선으로부터 소멸지점을 측정하는 단계 및 소멸 지점을 연결하는 수평선을 측정하는 단계;와
    - 수평선에서 카메라의 광학 중심 O의 투영 지점 F의 좌표를 측정하는 단계;와
    - 소멸 지점과 투영 지점 F 사이의 거리로부터 그리고 투영 지점 F와 광학 중심 O 사이의 거리로부터 카메라 베이스 지점(패턴의 평면에서 카메라의 광학 중심의 수직 투영)를 계산하는 단계;와
    - 광학 중심, 투영 지점 F 및 카메라 베이스 지점 사이의 거리로부터 초점 거리를 계산하는 단계;와
    - 카메라 베이스 지점으로부터의 통상의 거리에서, 카메라 베이스 지점과 소멸 라인에 위치된 지점 O1, O2, P1, P2 뿐만 아니라 소멸 지점을 연결하는 라인과 소멸 라인 사이에서의 교차 지점의 좌표를 계산하는 단계;와
    - 직사각형 O1, O2, P1, P2는 패턴의 평면에서 연장하는 사각형의 투영이라는 것을 고려하여 미리 계산된 좌표로부터 초기 패턴의 치수의 비율을 계산하는 단계;를 포함하는 프로세스에 따라 수행되는 것을 특징으로 하는 방법.
  18. 제17항에 있어서,
    양 소멸 지점이 존재하는 경우,
    ● 수평선(F1,F2)에서 이미지 O의 중심을 투영함으로써 지점 F의 좌표를 계산하는 단계;와
    ● 관계식 에 의해, 지점 F에 대한 거리 dist(X, F)에 의해 카메라의 베이스의 위치를 계산하는 단계;와
    ● 관계식 로 초점 거리 f를 계산하는 단계;와
    ● 미리 계산된 값으로부터 지점 M1, N1, O1, 및 P1의 좌표를 측정하는 단계;와
    ● 앞서 계산된 값으로부터 지점 M2, N2, O2, 및 P2의 좌표를 측정하는 단계;와
    ● 교차된 비율과, 관계식
    에 의해 직사각형 O1, O2, P1, P2는 패턴의 평면에서 연장하는 사각형의 투영이라는 사실을 사용하여, 물리적 형상 비율을 계산하는 단계;를 포함하는 방법.
  19. 제16항에 있어서,
    오직 한 쌍의 소멸 라인만이 소멸 지점에서 교차하고 다른 두 소멸 라인은 평행하는(소멸 지점은 무한대로 투영됨) 경우, 카메라의 미리 설정된 초점 거리 f로부터 비율 r의 계산이 수행되는 것을 특징으로 하는 방법.
  20. 제19항에 있어서,
    상기 비율 r은 관계식
    에 의해 얻어지고,
    사전에 계산되는 f는 카메라의 초점 거리인 것을 특징으로 하는 방법.
  21. 제16항에 있어서,
    소멸 지점이 없다면 비율 r은 비율 과 동일한 것을 특징으로 하는 방법.
  22. 제15항에 있어서,
    정정된 이미지의 생성은
    - 추출된 데이터를 포함하는 초기 이미지의 유용한 부분을 격리함으로써, 그리고 이 유용한 부분의 픽셀에 동일한 바이너리 값(0 또는 1)을 할당함으로써 정정되는 영역의 초기(변형된) 바이너리 마스크를 생성하는 단계;와
    - 임의의 다각형 형상을 기준 다각형 형상으로 변형하는 것에 기초하여, 초기 마스크의 직접적인 상동관계 변형에 의해 이상적인 바이너리 마스크를 계산하는 단계;와
    - 이상적인 바이너리 마스크의 각 픽셀(u,v)에 대해, 역 상동관계에 의해 초기 이미지의 위치(x,y)를 측정하고, 초기 이미지 내의 (x,y) 보간된 값에 의해 픽셀(u,v)에서 최종 이미지의 값을 측정하는 단계;를 포함하는 작동 시퀀스를 포함하는 것을 특징으로 하는 방법.
  23. 제22항에 있어서,
    상기 바이너리 마스크를 생성하는 단계는 0 값을 선택적으로 추출된 데이터에 대응하지 않는 픽셀 뿐만 아니라 이미지의 유용한 부분을 둘러싸는 사변형 외부에 있는 모든 픽셀에 할당하는 것을 포함하는 것을 특징으로 하는 방법.
  24. 제23항에 있어서,
    픽셀이 항상 사변형의 경계에 대해 사변형 내부에서 지점 G와 동일한 면에 있다면, 상기 픽셀은 사변형 내에 있는 것으로 고려되고, 지점 G는 대각선의 교차 지점 또는 중력 중심으로 구성될 수 있는 것을 특징으로 하는 방법.
  25. 제1항에 있어서,
    중간 라인 및 중간 열의 미리 계산된 이미지의 교차점에 의해 서브픽셀의 이미지를 얻기 위해, 중간 라인 및 중간 열의 이미지를 미리 계산하는 것을 포함하는 것을 특징으로 하는 방법.
  26. 제22항에 있어서,
    최종 이미지의 계산에서, 초기 이미지 또는 추출된 데이터의 이미지에서 픽셀의 위치를 찾음으로써 계산되는 강도 값이 이상적인 바이너리 마스크의 각 픽셀에 할당되는 것을 특징으로 하는 방법.
  27. 제22항 내지 제26항에 있어서,
    최종 이미지를 계산하는 단계에서, 이미지는 이상적인 마스크의 라인 및 열의 역 상동관계에 의해 미리 계산되고, 초기 이미지의 주어진 픽셀의 위치는 두 라인의 교차점을 계산함으로써 추론되는 것을 특징으로 하는 방법.
  28. 제15항에 있어서,
    최종 이미지를 생성하는 단계는 라인 v와 열 u의 미리 계산된 역 이미지의 교차점에 의해 이상적인 마스크의 픽셀(u,v)의 변형된 이미지 내에서 위치를 계산하는 것을 포함하고, 교차점은 초기 이미지의 x,y 지점을 한정하고, 강도 값은 휘도 이미지 또는 각 컬러 채널로부터 추출된 데이터의 이미지 또는 초기 이미지의 x,y 지점에서 보간되는 픽셀(u,v)에 할당되는 것을 특징으로 하는 방법.
  29. 제28항에 있어서,
    상기 보간은 쌍일차인 것을 특징으로 하는 방법.
  30. 제1항에 있어서,
    공제 원리에 따라 수행되는 최종 이미지 내에서 픽셀의 컬러의 측정을 포함하는 것을 특징으로 하는 방법.
  31. 제1항 내지 제30항 중 어느 한 항에 있어서,
    카메라에 의해 전달된 이미지에 포함된 손으로 쓴 또는 프린트된 정보의 공제 원리에 따라 추출을 위해, 추출되는 값을 선택하도록 쓰레스홀드 값 Vs의 측정을 포함하는 것을 특징으로 하는 방법.
  32. 제31항에 있어서,
    쓰레스홀드 값 Vs는 라인의 그리드를 제거하기 위한 기울기 쓰레스홀드 값 및/또는 노이즈 제거 쓰레스홀드에 대응하는 것을 특징으로 하는 방법.
  33. 제1항에 있어서,
    적, 녹, 파의 컬러 채널을 가지고 컬러 이미지로부터 정보의 추출이 수행되는 것에 의해, 각 컬러 채널에 대해 데이터를 추출하는 상기 단계들에 이어서 각 채널에 대한 쓰레스홀드의 측정이 이루어지고, 상기 RGB 채널로부터 컬러 정보의 추출과 최종 컬러 이미지 내로의 재조합은 쓰레스홀드가 초과되었던 것이 보이는 각 픽셀에서 빨, 적, 파의 값을 추출함으로써 이루어지는 것을 특징으로 하는 방법.
  34. 제33항에 있어서,
    각 픽셀에 대해, 연속적으로, 휘도를 추출하고, 원 데이터 D(p)를 추출하고, 노이즈 문맥상 데이터 Vs를 계산하고, 노이즈 문맥상 데이터에 의해 노이즈 정정 원 데이터 D*(p)를 추출하고,
    에 의해 정정된 휘도 이미지를 생성하는 것을 특징으로 하는 방법.
  35. 제33항에 있어서,
    최종 이미지에 대해 추구된 컬러가, 배경 컬러가 임으로 추정되거나 설정되는 단계와 측정된 색차 콘트라스트가 필터에 의해 배경 컬러로부터 제거되는 단계로 된 두 단계를 포함하는 공제 원리에 따라 얻어지는 것을 특징으로 하는 방법.
  36. 제35항에 있어서,
    노이즈 문맥상 데이터 Vs의 추출과,
    데이터로 쓰레스홀딩하고 관계식
    에 의해 정정 색차 이미지를 생성함으로써, 관측된 색차 RGB와 배경(VR Back ., VG Back ., VB Back.)의 색차 사이의 콘트라스트를 나타내는 채널 DR, DG, DB의 원 데이터를 계산함으로써 컬러 채널의 노이즈 정정 데이터(D*R, D*G, D*B)의 추출을 포함하는 것을 특징으로 하는 방법.
  37. 제36항에 있어서,
    원 이미지에서 지원 매체의 화이트 영역을 나타내는 픽셀의 색차가 (VR Back ., VG Back., VB Back .)=(160, 140, 110) 이거나, 지원 매체의 블루 쓰기 영역을 나타내는 픽셀의 색차가 색차 (V0R, V0V, V0B)=(120, 115, 105) 이고, 여기서 광학 노이즈 정정 화이트/블루 콘트라스가 (D*R, D*G, D*B)=(160-120, 140-115, 110-105)=(40, 25, 5) 이고 나아가 지원 매체의 화이트 영역을 나타내는 최종 이미지의 픽셀의 색차가 (RB, GB, BB)=(255, 255, 255)로 설정된다면, 최종 이미지 내에서 지원 매체의 블루 쓰기 영역을 나타내는 픽셀의 색차는 화이트에서 f 인자에 의해 미리 가중된 콘트라스트를 제거함으로써 측정되고, 이 픽셀에서의 최종 이미지의 정정된 색차(R*, G*, B*)는 f=1 인 경우 (R*, G*, B*)=(RB-D*R, GB-D*G, BB-D*B)=(255-40, 255-25, 255-5)=(215, 230, 250)이 되는 것을 특징으로 하는 방법.
  38. 제33항에 있어서,
    그레이 레벨 이미지 I(p)가 이미지(적, 파, 녹)의 세 컬러 채널의 조합 또는 이 채널 중 하나일 수 있다는 사실을 고려하여,
    - 피트의 히스토그램 H_pits를 계산하는 제1 단계와,
    - 범프의 히스토그램 H_bumps를 계산하는 제2 단계와,
    - 피트 및 범프의 히스토그램을 중첩하는 제3 단계와,
    - H_pits 및 H_bumps 히스토그램을 비교하는 단계와,
    - 추출 쓰레스홀드 Vs를 계산하는 단계와,
    - 스레스홀드 Vs에 의해 원 데이터를 추출하는 단계와,
    - 휘도 정보 L(p)를 추출하는 단계를 포함하고,
    H_pits 및 H_bumps 히스토그램을 비교하는 단계는, β>0 일 때,
    a) s=Smin 내지 s=S_pits_max 일 때 관계식 N_pits = H_pits(s)β의 합으로부터 값 N_pits를 계산하는 단계;와
    b) s=Smin 내지 s=S_bumps_max 일 때 관계식 N_bumps = H_bumps(s)β의 합으로부터 값 N_bumps를 계산하는 단계;와
    c) N_pits가 N_bumps 보다 작은 경우, 다크-온-브라이트-배경 정보가 추출되거나 브라이트-온-다크-배경 정보가 추출되는 단계;로 이루어진 작동단계를 포함하는 것을 특징으로 하는 방법.
  39. 제38항에 있어서,
    추출 쓰레스홀드의 계산은 1/2≤r≤1일 때 관계식 Vs=r.Smin+(1-r).Smax 에 따라 수행되는 것을 특징으로 하는 방법.
  40. 제38항에 있어서,
    휘도 정보 L(p)를 추출하는 단계는:
    - 정보가 다크-온-브라이트-배경 정보인 경우, I로부터 차이 이미지 D를 계산하고, 그렇지 않으면 Imax-I 로부터 D를 계산하는 단계;와
    - 차이 이미지 D(p)에서 각 픽셀 p에 대해, D(p)<Vs 인 경우, D(p)가 관련된 것으로 고려되어 추출되고,
    정보가 블랙-온-브라이트-배경 정보인 경우에는, 값 L(p)=Imax-f.D(p)을 계산하고 Imax는 255일 수 있고, 그렇지 않으면 값 L(p)=Imin+f.D(p)가 계산되고 Imin은 0일 수 있는 단계;와
    - D(p)가 관련이 없는 것으로 고려되면,
    정보가 다크-온-브라이트-배경 정보인 경우에는, 값 L(p)=Imax(브라이트 배경)이고 Imax는 255일 수 있고, 그렇지 않으면 값 L(p)=Imin(다크 배경)이 되고 Imin은 0일 수 있는 단계;로 이루어진 작동단계를 포함하는 것을 특징으로 하는 방법.
  41. 제1항에 있어서,
    규정된 초점 거리(f)와 경사각((π/2)-i)(i는 입사각도)과 카메라의 축 주위의 회전각 α와 i≠0 인 경우에 존재하는 소멸 지점(F1) 중 하나에 대하여 규정된 경사각(β)을 갖는 카메라를 가지고, 규정된 물리적 형상 비율 r=CD/AB와 이미지 내의 투영된 직사각형의 규정된 지점 D와, 알려진 투영 거리(CD)를 갖는 정점(A, B, C, D)를 갖는 직사각형 물체에 포함된 데이터로부터 투영된 이미지의 시뮬레이션을 포함하고,
    - 물리적 형상 비율 r과 일치하도록 알려지지 않은 세 지점(A, B, C)의 위치를 계산하는 제1 단계;와
    - 시뮬레이션된 이미지에 원 직사각형 물체에 포함된 정보를 투영하기 위해 상동관계를 계산하는 제2 단계;와
    - 미리 측정된 상동관계로 시뮬레이션된 이미지의 색차와 휘도를 측정하는 제3 단계;를 포함하는 것을 특징으로 하는 방법.
KR1020067022013A 2004-03-23 2005-03-17 촬영된 이미지로부터 원 데이터를 추출하는 방법 KR20070008652A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0402960 2004-03-23
FR0402960A FR2868184B1 (fr) 2004-03-23 2004-03-23 Procede pour la presentation d'une image selon un angle de vue souhaite, a partir d'une image prise sous incidence quelconque
FR0413047A FR2868185B1 (fr) 2004-03-23 2004-12-07 Procede d'extraction de donnees brutes d'une image resultant d'une prise de vue
FR0413047 2004-12-07

Publications (1)

Publication Number Publication Date
KR20070008652A true KR20070008652A (ko) 2007-01-17

Family

ID=34967748

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067022013A KR20070008652A (ko) 2004-03-23 2005-03-17 촬영된 이미지로부터 원 데이터를 추출하는 방법

Country Status (6)

Country Link
US (2) US7606439B2 (ko)
EP (1) EP1730692A1 (ko)
JP (1) JP2007531094A (ko)
KR (1) KR20070008652A (ko)
FR (1) FR2868185B1 (ko)
WO (1) WO2005098750A1 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060164682A1 (en) * 2005-01-25 2006-07-27 Dspv, Ltd. System and method of improving the legibility and applicability of document pictures using form based image enhancement
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US20090021533A1 (en) * 2007-07-17 2009-01-22 Michael Guerzhoy Method For Extracting An Inexact Rectangular Region Into An Axis-Aligned Rectangle Image
US8139894B2 (en) * 2007-12-20 2012-03-20 Intel Corporation Automatic dominant orientation estimation in text images based on steerable filters
US20090214134A1 (en) * 2008-02-27 2009-08-27 Motorola, Inc. System and method for image data extraction and assembly in digital cameras
TWI354198B (en) * 2008-04-18 2011-12-11 Primax Electronics Ltd Notebook computer and method of capturing document
US8125544B2 (en) * 2008-09-02 2012-02-28 Casio Computer Co., Ltd. Image processing apparatus for extracting quadrangle area in image
KR101035744B1 (ko) * 2008-12-08 2011-05-20 삼성전자주식회사 카메라를 이용한 문자 인식 장치 및 방법
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
JP4856263B2 (ja) * 2009-08-07 2012-01-18 シャープ株式会社 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
CN102054271B (zh) * 2009-11-02 2013-11-20 富士通株式会社 文本行检测方法和装置
EP2619975B1 (de) * 2010-09-20 2018-03-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung Verfahren zum unterscheiden von hintergrund und vordergrund einer szenerie sowie verfahren zum ersetzen eines hintergrundes in bildern einer szenerie
JP5488548B2 (ja) * 2011-08-04 2014-05-14 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US8989515B2 (en) 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
CN102663685B (zh) * 2012-03-19 2014-08-13 宁波大学 一种基于非线性的几何校正方法
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US9311531B2 (en) 2013-03-13 2016-04-12 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
JP2016518790A (ja) 2013-05-03 2016-06-23 コファックス, インコーポレイテッド モバイル装置を用いて取込まれたビデオにおけるオブジェクトを検出および分類するためのシステムおよび方法
JP2016538783A (ja) 2013-11-15 2016-12-08 コファックス, インコーポレイテッド モバイル映像データを用いて長尺文書の合成画像を生成するためのシステムおよび方法
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
CN111965630B (zh) * 2020-08-17 2024-05-28 南京先能光电科技有限公司 一种空间定位系统
CN113470117B (zh) * 2021-06-28 2022-12-27 上海交通大学 基于圆球逆透视投影的单位姿三维结构光标定系统及方法
CN114037637B (zh) * 2022-01-10 2022-04-19 苏州浪潮智能科技有限公司 一种图像数据增强方法、装置、计算机设备和存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2546017B1 (fr) * 1983-05-11 1986-01-17 Thomson Csf Procede pour realiser une transformation geometrique sur une image video, et dispositifs mettant en oeuvre ce procede
JP2903923B2 (ja) * 1993-01-19 1999-06-14 株式会社日立製作所 車番認識装置
EP1274252A3 (en) * 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
EP0814611B1 (de) * 1996-06-17 2002-08-28 Siemens Aktiengesellschaft Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
US6199073B1 (en) * 1997-04-21 2001-03-06 Ricoh Company, Ltd. Automatic archiving of documents during their transfer between a peripheral device and a processing device
JPH10210360A (ja) * 1997-01-27 1998-08-07 Minolta Co Ltd デジタルカメラ
JPH10257323A (ja) * 1997-03-14 1998-09-25 Minolta Co Ltd 画像読取り装置
JP3935276B2 (ja) * 1998-10-21 2007-06-20 キヤノン株式会社 ネットワークデバイス管理方法、装置、記憶媒体、及び送出装置
ATE334452T1 (de) * 1998-11-06 2006-08-15 Datalogic Spa Verfahren zur korrektur der verzerrung beim abtasten eines optischen codes
WO2000031966A1 (en) 1998-11-23 2000-06-02 Ni4U Corporation System and method for taking, selecting and processing electronic pictures
JP2001005852A (ja) * 1999-06-23 2001-01-12 Canon Inc 有限要素モデル処理装置及び方法
JP2001177716A (ja) * 1999-12-17 2001-06-29 Ricoh Co Ltd 画像処理方法と画像処理装置
JP4010754B2 (ja) * 2000-08-10 2007-11-21 株式会社リコー 画像処理装置と画像処理方法及びコンピュータ読み取り可能な記録媒体
US6963358B2 (en) * 2000-11-10 2005-11-08 Dropfire, Inc. Wireless digital camera adapter and systems and methods related thereto and for use with such an adapter
FR2818480A1 (fr) 2000-12-04 2002-06-21 Marc Jacky Labarthe Camescope numerique bas cout
US6999111B2 (en) * 2001-06-26 2006-02-14 Eastman Kodak Company Electronic camera and system for transmitting digital over a communication network
WO2003024090A1 (en) * 2001-09-07 2003-03-20 Koninklijke Philips Electronics N.V. Image device having camera and image perspective correction and possibly rotation and staggering correction
US7127271B1 (en) * 2001-10-18 2006-10-24 Iwao Fujisaki Communication device
JP2003331263A (ja) * 2002-05-13 2003-11-21 Nippon Telegr & Teleph Corp <Ntt> カメラ画像−実空間座標対応付けマップ生成方法、カメラ画像−実空間座標対応付けマップ生成装置、プログラムおよび記録媒体
FR2840093B1 (fr) * 2002-05-27 2006-02-10 Real Eyes 3D Procede de numerisation par camera avec correction de la deformation et amelioration de la resolution
JP2004040395A (ja) * 2002-07-02 2004-02-05 Fujitsu Ltd 画像歪み補正装置、方法及びプログラム
US7596286B2 (en) * 2003-08-06 2009-09-29 Sony Corporation Image processing apparatus, image processing system, imaging apparatus and image processing method
CN101015199B (zh) * 2004-07-07 2011-10-19 日本电气株式会社 宽视野图像输入方法和装置

Also Published As

Publication number Publication date
US20050212925A1 (en) 2005-09-29
EP1730692A1 (fr) 2006-12-13
WO2005098750A1 (fr) 2005-10-20
WO2005098750A8 (fr) 2006-12-21
FR2868185B1 (fr) 2006-06-30
JP2007531094A (ja) 2007-11-01
US7606439B2 (en) 2009-10-20
US20100033603A1 (en) 2010-02-11
FR2868185A1 (fr) 2005-09-30

Similar Documents

Publication Publication Date Title
KR20070008652A (ko) 촬영된 이미지로부터 원 데이터를 추출하는 방법
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
US6898316B2 (en) Multiple image area detection in a digital image
US7313289B2 (en) Image processing method and apparatus and computer-readable storage medium using improved distortion correction
KR100796849B1 (ko) 휴대 단말기용 파노라마 모자이크 사진 촬영 방법
US7899270B2 (en) Method and apparatus for providing panoramic view with geometric correction
US20160055395A1 (en) Determining distance between an object and a capture device based on captured image data
US8619098B2 (en) Methods and apparatuses for generating co-salient thumbnails for digital images
JP2000137788A (ja) 画像処理方法、画像処理装置及び記録媒体
JP2000149018A (ja) 画像処理方法、画像処理装置及び記録媒体
US10930059B2 (en) Method and apparatus for processing virtual object lighting inserted into a 3D real scene
JP4662258B2 (ja) 画像処理方法及び装置、デジタルカメラ装置、並びに画像処理プログラムを記録した記録媒体
CN1957370B (zh) 从照相机获取的图片中提取原始数据的方法
US7602967B2 (en) Method of improving image quality
US10992913B2 (en) Image processing apparatus, method, and storage medium storing program for transforming distortion of image projected by projection apparatus
CN114820417A (zh) 图像异常检测方法、装置、终端设备和可读存储介质
KR102311367B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 프로그램
JP4176369B2 (ja) 光バランスの変化を最小としつつディジタル画像を光フォールオフについて補償する方法
US20100040304A1 (en) Image quality improvement processing apparatus, image quality improvement processing method and computer-readable recording medium storing image quality improvement processing computer program
JP2004133919A (ja) 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体
US7003160B2 (en) Image processing apparatus, image processing method, and computer readable recording medium recording image processing program for processing image obtained by picking up or reading original
US11525671B2 (en) High contrast structured light patterns for QIS sensors
CN115601616A (zh) 一种样本数据生成方法、装置、电子设备和存储介质
CN112040208B (zh) 图像处理方法、装置、可读存储介质及计算机设备
US8472708B2 (en) Image processor, method for processing image and computer readable medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application