KR20140019227A - 이미지 센서 포지셔닝 장치 및 방법 - Google Patents

이미지 센서 포지셔닝 장치 및 방법 Download PDF

Info

Publication number
KR20140019227A
KR20140019227A KR1020130089790A KR20130089790A KR20140019227A KR 20140019227 A KR20140019227 A KR 20140019227A KR 1020130089790 A KR1020130089790 A KR 1020130089790A KR 20130089790 A KR20130089790 A KR 20130089790A KR 20140019227 A KR20140019227 A KR 20140019227A
Authority
KR
South Korea
Prior art keywords
image sensor
light beams
group
light
substantially parallel
Prior art date
Application number
KR1020130089790A
Other languages
English (en)
Other versions
KR101911006B1 (ko
Inventor
프레드릭 스테른그렌
Original Assignee
엑시스 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엑시스 에이비 filed Critical 엑시스 에이비
Publication of KR20140019227A publication Critical patent/KR20140019227A/ko
Application granted granted Critical
Publication of KR101911006B1 publication Critical patent/KR101911006B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0004Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed
    • G02B19/0028Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed refractive and reflective surfaces, e.g. non-imaging catadioptric systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은, 카메라 내에서 광 수용 평면을 포함하는 이미지 센서를 위치시키는 방법 및 이미지 센서의 위치를 식별하기 위한 시스템에 관한 것이다. 이 방법은 제 1 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 1 그룹을 이미지 센서의 광 수용 평면에 일 입사각으로 투영하는 단계, 제 2 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 2 그룹을 이미지 센서의 광 수용 평면에 일 입사각으로 투영하는 단계, 광 빔들이 이미지 센서에 의해 검출되는 이미지 센서의 광 수용 평면상에 위치들을 등록하는 단계, 이미지 센서의 현재 위치가 잘못된 위치인지 아닌지 나타내는 조절 정보를 등록된 위치들에 기초하여 발생시키는 단계, 및 조절 정보에 기초하여 이미지 센서의 위치를 조절하는 단계를 포함한다.

Description

이미지 센서 포지셔닝 장치 및 방법{IMAGE SENSOR POSITIONING APPARATUS AND METHOD}
본 발명은 카메라 내에서 이미지 센서의 포지셔닝(positioning)을 측정하기 위한 장치 및 방법에 관한 것이다.
디지털 카메라들과 같은 디지털 이미징 디바이스들에 의해 캡쳐된 이미지들의 이미지 품질은 점점 더 중요하다. 개선된 품질을 달성하기 위해, 제조업자들은 센서에 의해 캡쳐되는 픽셀들의 수, 광 민감도, 이미지를 나타내는 광을 카메라의 이미지 센서로 가이드하도록 배열되는 옵틱스를 증가시켰다. 캡쳐된 이미지의 품질에 직접적으로 영향을 미치는 다른 중요한 요인은 이미지 센서의 포지셔닝이다. 최적의 이미지 품질을 달성하기 위해, 카메라의 이미지 센서는 옵틱스의 렌즈들로부터 정확한 거리에 위치되어야 하며, 그렇지 않으면 이미지는 아웃 포커스로 있기 때문에 희미하게 될 것이다. 게다가, 보통, 경사(tilt)는 센서 표면에 대해 포커스를 변화하게 만들 것이기 때문에 카메라의 옵틱스의 렌즈들의 광축에 대해 이미지 센서는 경사지면 안된다.
이러한 이유로, 높은 이미지 품질을 달성하기 위한 하나의 기여 요인은, 이미지 센서를 정확하게 위치시키는 것이다. 이미지 센서를 정확하게 위치시키기 위해, 그 위치는 이미지 센서 위치의 정확한 포지셔닝을 확인하거나 이미지 센서 위치의 조절을 제안하도록 체크되어야만 한다. 오늘날, 이미지 센서의 위치를 체크하기 위해 2가지 방법들 중 하나가 통상적으로 이용된다.
제 1 방법은, 이미지센서로의 카메라의 광축과 평행한 레이저 빔을 전송하여 이미지 센서로부터의 반사각을 측정하는 것을 포함한다. 측정 동안, 카메라의 옵틱스의 렌즈들이 제거된다. 이러한 방법으로부터, 카메라 옵틱스로의 거리가 정확한 거리인지 아닌지 여부를 말하기는 가능하지 않다. 더욱이, 이미지 센서의 표면이 평평하지 않고 평활하지 않은 경우, 측정의 정확도는 저하될 수 있다.
제 2 방법은, 렌즈를 통해서 타겟 이미지를 켭쳐하여 캡쳐된 이미지를 분석하고, 캡쳐된 이미지의 분석들로부터 결과로 나타나는 것으로서 이미지 센서 또는 렌즈의 위치를 조절하는 것을 포함한다. 이 방법은, 분석에 기초한 조절들이 렌즈 내 결함들을 또한 고려하기 때문에, 렌즈가 이미지 센서에 대해 고정형으로 배열된 카메라들에 대해서는 유리하게 이용될 수 있다.
본 발명의 하나의 목적은, 카메라 내에서 이미지 센서의 위치를 측정할 때 개선된 정확도를 제공하기 위한 것이다.
이 목적은, 청구항 1에 따라서 이미지 센서를 포지셔닝하기 위한 방법에 의해 달성된다. 본 발명의 추가적인 실시예들이 종속 청구항들에 나타난다.
특히, 본 발명의 일 실시예에 따르면, 카메라 내에서 광 수용 평면을 포함하는 이미지 센서를 포지셔닝하기 위한 방법은, 제 1 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 1 그룹을 이미지 센서의 광 수용 평면에 일 입사각으로 투영하는 단계, 제 2 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 2 그룹을 이미지 센서의 광 수용 평면에 일 입사각으로 투영하는 단계, 광 빔들이 이미지 센서에 의해 검출되는 이미지 센서의 광 수용 평면상에 위치들을 등록하는 단계, 이미지 센서의 현재 위치가 잘못된 위치인지 아닌지 나타내는 조절 정보(adjustment information)를 등록된 위치들에 기초하여 발생시키는 단계, 및 조절 정보에 기초하여 이미지 센서의 위치를 조절하는 단계를 포함한다.
이 방법의 일 이점은, 공지된 방법들의 관점으로 이미지 센서의 포지셔닝의 정밀도가 증가된다는 것이다. 다른 이점은, 이 방법이 복수의 상이한 유형들의 포지셔닝 에러들의 검출을 가능하게 하고 이에 따라 이미지 센서의 정확한 포지셔닝의 수행을 용이하게 할 수 있다는 것이다. 더욱이, 이미지 센서의 포지셔닝은 캡쳐된 이미지들의 이미지 품질에 직접적으로 영향을 주고, 이에 따라 이 방법은 카메라들로부터의 증가된 이미지 품질을 가능하게 하기 위한 방법으로서 고려될 수 있다.
다른 실시예에서, 실질적으로 평행한 광 빔들의 제 1 그룹은 이미지 센서의 광 수용 평면을 향하는 접근의 제 1 방향을 갖고, 실질적으로 평행한 광 빔들의 제 2 그룹은 이미지 센서의 광 수용 평면을 향하는 접근의 제 2 방향을 가지며, 제 1 방향 및 제 2 방향은 교차하는 방향들이다. 이러한 특징들의 일 이점은, 이 특징들이 이미지 센서의 포지셔닝의 정밀도를 증가시키는데 기여한다는 것이다.
일 실시예에서, 실질적으로 평행한 광 빔들의 제 1 그룹은 이미지 센서의 광 수용 평면을 향하여 접근의 제 1 방향을 갖고, 이 제 1 방향은 이미지 센서의 광 수용 평면을 향하여 실질적으로 직교하게 지향된 제 1 성분 및 제 1 성분에 직교하게 지향된 제 2 성분을 가지며, 실질적으로 평행한 광 빔들의 제 2 그룹은 이미지 센서의 광 수용 평면을 향하여 접근의 제 2 방향을 갖고, 이 제 2 방향은 이미지 센서의 광 수용 평면을 향하여 실질적으로 직교하게 지향된 제 1 성분 및 제 1 성분에 직교하게 지향된 제 2 성분을 가지며, 제 1 방향의 상기 제 2 성분의 방향은 제 2 방향의 상기 제 2 성분의 방향에 반대 방향인 방향을 갖는다. 이러한 특징들의 일 이점은, 이들이 이미지 센서의 포지셔닝의 정밀도를 증가시키는데 기여한다는 것이다.
특정 실시예에서, 제 1 그룹 및 제 2 그룹 각각의 실질적으로 평행한 광 빔들의 입사각은 적어도 30도이다.
다른 실시예에서, 제 1 그룹 및 제 2 그룹 각각의 실질적으로 평행한 광 빔들의 입사각은 적어도 45도이다.
일 실시예에 따르면, 실질적으로 평행한 광 빔들의 제 1 그룹의 광 빔들의 색상은 실질적으로 평행한 광 빔들의 제 2 그룹의 광 빔들의 색상과 상이하다. 상이한 색상의 광의 이용은 등록된 광 빔들의 분석을 용이하게 할 수 있다.
추가적인 실시예에 따르면, 실질적으로 평행한 광 빔들의 제 1 그룹의 광 빔들의 색상은 적색, 녹색, 및 청색의 그룹에 포함된 색상들 중 하나이며, 실질적으로 평행한 광 빔들의 제 2 그룹의 광 빔들의 색상은 적색, 녹색, 및 청색의 그룹에 포함된 색상들 중 다른 하나이다. 실질적으로 평행한 광 빔들의 그룹들의 식별은, 색상들이 명료하게 분리되는 경우, 훨씬 더 용이하게 된다.
다른 실시예에 따르면, 색상에 있어서의 차이는 실질적으로 평행한 광 빔들의 2개의 그룹들의 색상들 사이의 파장에 있어서 적어도 25㎚ 차이에 해당한다. 실질적으로 평행한 광 빔들의 그룹들의 식별은, 색상들이 파장에 있어서 명료하게 분리된 경우, 훨씬 더 용이하게 된다.
일 실시예에 따르면, 이미지 센서의 광 수용 평면으로의 실질적으로 평행한 광 빔들의 제 1 그룹의 투영은 제 1 시간 기간 동안 수행되고, 이미지 센서의 광 수용 평면으로의 실질적으로 평행한 광 빔들의 제 2 그룹의 투영은 제 2 시간 기간 동안 수행되며, 제 1 시간 기간은 제 2 시간 기간에 포함되지 않은 적어도 하나의 시간 기간을 포함한다. 또한, 이 실시예의 이점은 실질적으로 평행한 광 빔들의 그룹들 각각에 속하는 광 빔들의 식별을 용이하게 한다는 것이다. 이전 실시예들은 또한, 제 2 시간 기간이 제 1 시간 기간에 포함되지 않은 적어도 하나의 시간 기간을 포함한다는 규제를 포함할 수 있다.
다른 실시예에서, 실질적으로 평행한 광 빔들의 제 1 그룹 및 제 2 그룹을 투영하는 동작은 광을 시준하는(collimating) 동작을 포함한다.
또 다른 실시예에서, 제 1 미리결정된 패턴 및 제 2 미리결정된 패턴은 실질적으로 동일하다. 이 실시예는 이미지 센서의 잘못된 포지셔닝으로부터 초래하는 차이들의 식별을 용이하게 할 수 있다.
추가적인 실시예에서, 미리결정된 패턴들 중 적어도 하나는 이미지 센서의 유효 표면의 일 에지로부터 이미지 센서의 유효 표면의 반대 에지로 실질적으로 연신하는 길이를 갖는 평행 라인들을 포함한다.
일 실시예에 따르면, 이 방법은 실질적으로 평행한 광 빔들의 제 1 그룹을 이용하여 투영된 패턴과 실질적으로 평행한 광 빔들의 제 2 그룹을 이용하여 투영된 패턴 사이의 거리를 결정하는 단계 및 패턴들 사이의 상기 거리에 기초하여 적어도 하나의 잘못된 상태를 결정하는 단계를 더 포함한다.
다른 실시예에 따르면, 실질적으로 평행한 광 빔들의 제 1 그룹 및 실질적으로 평행한 광 빔들의 제 2 그룹은 단일 발광 디바이스를 이용하여 발생된다.
다른 실시예에서, 실질적으로 평행한 광 빔들의 제 1 그룹을 투영하는 동작은 이미지 센서의 광 수용 평면에 실질적으로 직교하는 각도로 카메라에 실질적으로 평행한 광 빔들을 전송하는 것, 재지향 표면에서 실질적으로 평행한 광 빔들을 이미지 센서의 광 수용 평면을 향하여 상기 입사각으로 재지향시키는 것을 포함하고, 광 빔들의 상기 재지향은 광 빔들이 카메라의 렌즈 마운트를 통과할 때까지 수행되지 않는다. 이 실시예의 이점은, 카메라의 개구부(opening)에 진입하는 광이 이 각도에서 직접 광 빔들을 전송하기 위해 충분히 큰 입사각을 가능하게 하기에는 너무 작을지라도, 센서 위치 테스트의 분해능이 달성될 수 있다는 것이다.
본 발명의 다른 양상에 따르면, 카메라 내에서 이미지 센서의 위치를 측정하기 위한 측정 시스템은 제 1 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 1 그룹을 발광하도록 배열된 제 1 광원, 제 2 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 2 그룹을 발광하도록 배열된 제 2 광원을 포함하고, 제 1 광원 및 제 2 광원은 각각의 광원으로부터의 광 빔들이 서로 다른 광원으로부터의 광빔들과 교차하게 하도록 지향된다. 이러한 시스템의 일 이점은, 카메라 내에서 이미지 센서의 정밀한 포지셔닝을 허용한다는 것이다. 시스템의 다른 이점은, 시스템이 이미지 센서의 다양한 유형들의 포지셔닝 에러들을 식별할 수 있다는 것이다.
일 실시예에 따르면, 제 1 광원은 발광 디바이스, 광 시준기 및 패턴 발생기를 포함한다.
다른 실시예에 따르면, 제 1 광원은 발광 디바이스로부터의 광 빔들을 제 2 광원으로부터의 광 빔들을 교차하는 방향으로 재지향시키도록 배열된 광 지향 수단을 포함한다.
본 발명의 응용의 추가적인 범위는 이하 주어진 상세한 설명으로부터 명백하게 될 것이다. 그러나, 본 발명의 범위 내에서의 다양한 변경들 및 변형들이 본 상세한 설명으로부터 당업자들에게 명백하게 될 것이기 때문에, 본 발명의 바람직한 실시예들을 나타내면서 상세한 설명 및 특정 예시들이 오직 예시로서 주어진다는 것이 이해된다. 이러한 이유로, 본 발명은 이러한 디바이스로서 설명된 방법들의 단계들 또는 설명된 디바이스의 특정 컴포넌트 부분들로 한정하지 않으며, 이 방법은 변화할 수 있다는 것이 이해된다. 또한, 본원에 이용된 용어는 오직 특정 실시예들 만을 설명하기 위한 목적이며, 제한하는 것으로 의도되지 않는다는 것이 이해된다. 상세한 설명 및 첨부된 청구항에 이용된 바와 같이, 관사들 "a", "an", "the", 및 "said"는 문맥이 그렇지 않은 것으로 명료하게 지시하지 않는 한, 하나 또는 그 초과의 엘리먼트들이 존재한다는 것을 이해하는 것으로 의도된다는 것에 유의해야 한다. 따라서, 예를 들어, "센서(a sensor)" 또는 "그 센서(the sensor)"에 대한 참조는 수개의 센서들 등을 포함할 수 있다. 또한, 단어 "포함하는"은 다른 엘리먼트들 또는 단계들을 배제하지 않는다.
본 발명의 다른 특징들 및 이점들은, 첨부된 도면들을 참조하여, 현재 바람직한 실시예의 이하의 상세한 설명으로부터 명백하게 될 것이다.
도 1은 본 발명의 일 실시예에 따라서 이미지 센서를 포지셔닝하기 위한 어레인지먼트를 도시하는 개략적인 도면이다.
도 2는 본 발명의 일 실시예에 따라서 이미지 센서에 도달하는 광 빔들의 그룹들의 개략적인 도면이다.
도 3은, 광 빔들이 도달하는 위치에서 벗어난 위치에 있는, 도 2의 이미지 센서의 개략적인 도면이다.
도 4는, 도 3의 이미지 센서와 동일한 위치에 있는, 도 3의 이미지 센서의 측면도이다.
도 5a는, 이미지 센서가 최적의 위치에 배열되는 경우, 일 실시예에 따라서 이미지 센서로의 라인들의 투영의 개략적인 측면도이다.
도 5b는 도 5a에서 센서에 의해 등록된 광의 개략적인 도면이다.
도 6a는, 이미지 센서가 광 경로를 따라 더 멀리 나아가(further) 배열되는 경우, 이미지 센서에 도달하는 광 빔들을 나타내는 이미지 센서의 개략적인 도면이다.
도 6b는 도 6a에서 센서에 의해 등록된 광의 개략적인 도면이다.
도 7a는, 이미지 센서가 광 경로의 너무 앞에(too early) 배열되는 경우, 이미지 센서에 도달하는 광 빔들을 나타내는 이미지 센서의 개략적인 도면이다.
도 7b는 도 7a에서 센서에 의해 등록된 광의 개략적인 도면이다.
도 8a는, 이미지 센서가 광 경로에 대해 경사져서(at a tilt) 배치되는 경우, 이미지 센서에 도달하는 광 빔들을 나타내는 이미지 센서의 개략적인 도면이다.
도 8b는 도 8a에서 센서에 의해 등록된 광의 개략적인 도면이다.
도 9는, 이미지 센서가 이 도면에서 x-축 주위로 기울어진 경우, 이미지 센서에 의해 등록된 광의 개략적인 도면이다.
도 10은, 이미지 센서의 광 수용 표면이 이미지 센서의 보디에 대해 외측으로 또는 내측으로 돌출하는 경우, 이미지 센서에 의해 등록된 광의 개략적인 도면이다.
도 11은 본 발명의 일 실시예에 따른 프로세스의 플로우차트이다.
도 12는 본 발명의 일 실시예에 따른 광원 발광 시준 광(light source emitting collimated light)의 개략적인 도면이다.
도 13은 본 발명의 다른 실시예에 따른 광원 발광 시준 광의 개략적인 도면이다.
도 14a 내지 도 14e는 본 발명의 구현예에서 이미지 센서로 투영될 수 있는 패턴들의 예시들을 나타낸다.
도 15는 일 실시예에 따라서 투영된 패턴으로 광 빔들을 기울이기(angling) 위한 광 지향 수단의 개략적인 도면을 나타낸다.
도 16은 다른 실시예에 따라서 투영된 패턴으로 광 빔들을 기울이기 위한 광 지향 수단의 개략적인 도면을 나타낸다.
도 17은 또 다른 실시예에 따라서 투영된 패턴으로 광 빔들을 기울이기 위한 광 지향 수단의 개략적인 도면을 나타낸다.
또한, 도면들에서, 유사한 참조 부호는 수개의 도면들에 걸쳐서 유사한 또는 대응하는 부분들을 명시한다.
본 발명은, 카메라 내에서 이미지 센서의 포지셔닝을 위한 방법, 및 카메라 내에서 이미지 센서의 잘못된 포지셔닝을 식별하기 위한 디바이스 또는 시스템에 관한 것이다.
이제 도 1을 참조하여, 본 발명의 일 실시예에 따라서 이미지 센서(12)의 매우 정확한 포지셔닝을 가능하게 하기 위해 카메라(15)의 카메라 하우징(14) 내에서 이미지 센서(12)의 포지셔닝을 측정하도록 배열된 측정 시스템(10) 또는 측정 디바이스는, 위치될 이미지 센서(12)를 향해서 그리고 서로를 향해서 지향된 2개의 광원들, 제 1 광원(16) 및 제 2 광원(18)을 포함한다. 2개의 광원들(16, 18)로부터 발광하는 광은, 일 실시예에 따르면, 2개의 별도의 발광 디바이스들로부터 기인(originate)할 수 있고 또는, 대안적인 실시예에 따르면, 단일 발광 디바이스 및 몇몇 종류의 광 빔 스플리터, 예를 들어, 프리즘, 미러들 등으로부터 기인할 수 있다. 광원들(16, 18)은 미리결정된 패턴을 형성하는 시준 광을 발생시키도록 배열된다. 시준 광 또는 시준 광 빔들은 실질적으로 평행한 광 빔들이다.
게다가, 이미지 센서는 측정 시스템(10)의 포지셔닝 프로세서(20)에 연결된다. 포지셔닝 프로세서(20)는 카메라 하우징(14) 내에서 이미지 센서(12)에 의해 캡쳐된 이미지 데이터를 프로세싱하도록 배열된 디바이스이다. 이미지 데이터는, 카메라 하우징(14)에 배열된 커넥터(22)를 통해서 카메라 전자장치에 의해 출력된 후, 포지셔닝 프로세서(20)의 입력부에서 수신될 수 있다. 다음으로, 포지셔닝 프로세서(20)는 이미지 데이터를 프로세싱하고, 데이터를 (어떤 데이터로부터 오퍼레이터가 가능한 편차들의 기술을 결정할 수 있는지) 오퍼레이터에 제시하거나, 또는 포지셔닝 프로세서(20)는 이미지 데이터를 프로세싱하고, 이를 분석하고, 예상된 이미지와 비교하여 카메라(15)로부터의 결과로 캡쳐된 이미지에서의 임의의 편차들을 결정한다. 오퍼레이터로의 제시는 단순하게 캡쳐된 이미지의 시각적 제시일 수 있다. 포지셔닝 프로세서(20)가 편차들을 결정하는 경우, 이러한 데이터는 포지셔닝 프로세서(20)로부터 수신된 데이터에 기초하여 이미지 센서를 조절하는 것을 가능하게 하는 조절 디바이스에 전송될 수 있다.
도 2에서, 본 발명의 이해를 용이하게 하기 위해 간략화된 예시가 도시된다. 이 예에서, 시준 광 빔들의 2개의 그룹들(40, 42), 시준 광의 제 1 그룹(40) 및 시준 광의 제 2 그룹(42)이 도시된다. 시준 광의 각각의 그룹은 라인을 형성한다. 시준 광 빔들의 그룹들 둘 다는 각각 입사각(α1 및 α2)으로 이미지 센서를 향해서 전송된다. 시준 광 빔들의 제 1 그룹(40)에 대한 입사각(α1)은 시준 광 빔들의 제 2 그룹(42)에 대한 입사각(α2)과는 상이할 수 있다. 그러나, 시준 광들의 2개의 그룹들(40, 42)의 입사각(α1 및 α2)은 동일한(즉, α1 = α2) 것이 바람직할 수 있다. 이 예에서, α1 = α2 = 45도이다. 입사각은, 표면상에 닿는(falling on) 광의 빔(48)이 입사 포인트(52)에서 그려진 법선(50)과 형성하는 각도이다. 이 예시의 경우, 측정 시스템(10)은 단일 라인(54)으로서 기준 평면으로부터 미리결정된 거리에서 시준 광 빔들의 2개의 그룹들(즉, 시준 광의 제 1 그룹(40)의 투영된 패턴이 라인임, 시준 광의 제 2 그룹(42)의 투영된 패턴이 라인임)을 투영하도록 배열되며, 시준 광들의 제 1 및 제 2 그룹들의 이러한 투영된 패턴들은 미리결정된 거리에서 동시에 발생하도록 의도된다. 이런 이유로, 이미지 센서, 그리고 이에 따라 이미지 센서의 광 수용 평면(56)이 도 2에서와 같이 미리결정된 거리에 위치되는 경우, 이미지 센서에 의해 단일의 라인이 검출된다.
앞서 논의된 기준 평면은 카메라의 렌즈 마운트(lens mount)의 특징들에 의해 정의된 평면일 수 있고, 이에 의해 카메라로의 광 경로에 대한 그리고 카메라에 탑재된 렌즈들의 촛점 평면에 대한 거리 및 각도들을 설명한다(relating).
도 3에서, 도 2의 측정 시스템과 동일한 셋업이 이용된다. 따라서, 시준 광들의 제 1 그룹 및 제 2 그룹들의 패턴들은 라인들이며, 그룹들 모두에서 광 빔들의 입사각들은 45도이다. 그러나, 이미지 센서(12) 및 그 자신의 광 수용 평면(56)은 정확하게 포지셔닝되지 않는다. 광 수용 평면의 정확한 위치는 점선 프레임(58)으로 표시된다. 도 3에서 관찰되는 바와 같이, 시준 광 빔들의 각각의 그룹의 투영된 라인들(40, 42)은 이제 2개의 별도의 라인들(60, 62)로서 광 수용 평면에 도달한다. 2개의 라인들 사이의 거리 L1은 정확한 포지셔닝으로부터의 편차 L2를 나타낸다. 이 예시에서, 이미지 센서(12)는 정확한 위치로부터 거리를 두고 위치되지만, 여전히 광 수용 평면의 정확한 위치와 평행하게 위치된다. 신규의 시스템 또는 방법을 이용하여 검출될 수 있는 다른 에러들은 경사진 이미지 센서들, 평평하지 않은 센서 표면들 등이다. 도 3의 예시는 도 4의 측면도로서 나타난다. 센서를 향해서 투영된 광 빔들의 그룹들을 예시하는 이러한 간략화된 방법은 이하 다른 실시예들에서 이용될 것이다.
도 4에서, 이러한 유형의 측정 방법의 정밀도가 도 3의 예를 이용하여 예시된다. 카메라 시스템의 광축(64)을 따른 광 수용 평면(58)의 정확한 위치로부터의 이미지 센서의 광 수용 평면(56)의 포지셔닝의 편차는 2개의 광 빔들(40, 42)의 검출된 위치들(60, 62)을 결정함으로써 그리고 광 빔들의 입사각을 인지함으로써 계산될 수 있다. 도 4의 예에서, 이러한 2개의 광 빔들은 정확하게 위치된 광 수용 평면(58)에 수렴하고, 이에 따라, 광 수용 평면(56)이 카메라 시스템의 광축(64)을 따라서 이동될 때 서로로부터의 거리 L1에서 검출된다. 이 예에서 입사각이 45도이기 때문에, 광축에 평행한 방향에서 광 수용 평면(58)의 정확한 위치로부터의 광 수용 평면(56)의 위치의 편차 L2는, 광 수용 표면(56)에 도달하는 광 빔들의 2개의 위치들 사이에서 거리 L1의 거리의 1/2인 편차 L2로서 기하학으로 인해 쉽게 계산될 수 있다. 이런 이유로, 광축의 방향에서의 위치적 에러는 이러한 특정 경우에서 L2=L1/2로서 계산될 수 있다. 입사각이 다른 각도로 설정되는 경우, 거리 L1에 기초하여 위치적 에러 L2를 계산하기 위해 삼각 함수가 이용될 수 있다.
이 예로부터, 당업자들은, 측정의 정밀도가 이미지 센서 상에서 위치들의 측정의 정밀도에 의존하는 것으로 결론지을 수 있을 것이다. 예를 들어, 센서 상에서의 위치들을 측정하는 정밀도가 1 픽셀이면, 정밀도는 픽셀의 1/2일 것이다. 픽셀 피치가 2.2㎛인 Aptina MT9P401와 같은 이미지 센서의 경우, 정밀도는 1.1㎛일 것이다.
일 실시예에서, 시준 광빔들(70, 72)의 각각의 그룹에 의해 이미지 센서(12)로 투영된 패턴은 복수의 라인들이다, 도 5a 및 도 5b 참조. 도 5a에서, 이미지 센서(12)를 향해서 이동하는 광 빔들이 도시된다. 이 실시예에서, 시준 광 빔들(70, 72)의 2개의 그룹들 각각은 이미지 센서의 라인들(74, 76)의 패턴을 이미지 센서에 투영시킨다. 이미지 센서 상의 결과 이미지는 도 5b에 도시된다. 시준 광빔들의 2개의 그룹들로부터의 광 빔들은 단일 패턴으로 수렴하며, 즉, 시준 광빔들의 제 1 그룹으로부터의 패턴의 각각의 라인(74)은 시준 광들의 제 2 그룹으로부터의 패턴의 대응하는 라인(76)으로 수렴하며, 이에 따라 시준 광들의 제 1 또는 제 2 그룹에 의해 생성된 개별적인 패턴들 중 임의의 하나와 동일한 패턴을 결과로 초래한다. 이 결과로 초래된 일치하는 패턴은, 광 수용 평면(56)이 정확하게 위치되고 경사지지 않으며, 광 경로를 따라서 정확한 위치에 위치된 경우에 달성된다.
도 6a 및 도 6b를 이제 참조하여, 광 수용 평면(56)이 최적의 위치(58)에 위치되지 않지만, 예를 들어 광 경로를 따라서 더 멀리 나아간 위치에 위치되고, 광 경로를 따른 광의 이동 방향을 고려하여, 여전히 최적의 수용 평면에 평행한 경우, 도 6b에 도시된 것과 같은 패턴이 이미지 센서(12)에 의해 등록된다. 라인들을 형성하는 시준 광 빔들(70, 72)의 2개의 별도의 그룹들로부터의 광 빔들의 결과가 이미지 센서의 포지셔닝으로 인해 일치하지 않기 때문에, 패턴은 광 수용 표면의 최적의 포지셔닝과 비교하여 2배 양의 라인들(74, 76)을 포함한다. 이런 이유로, 시준 광 빔들(70)의 제 1 그룹으로부터의 광 빔들은 라인들(74)로서 등록되고, 시준 광빔들(72)의 제 2 그룹으로부터의 광 빔들은 라인들(76)로서 등록된다. 전술한 바와 같이, 서로에 대해 오버레이(overlaid)되어야만 하는 2개의 라인들 사이의 거리 L1은 광축을 따른 방향에서의 위치적 에러를 나타낸다. 더욱이, 광 수용 평면(56)이 광 경로의 앞에(earlier in) 위치되거나 또는 광 경로를 따라 더 멀리 나아가(further) 위치되는지 여부와는 관계없이, 최적으로 위치된 광 수용 평면(58)과 비교하여, 최적의 위치로부터의 편차가 동일한 경우, 즉, 광 수용 평면(56)이 광 경로에서 거리 x 만큼 더 앞에 또는 광 경로를 따라서 거리 x만큼 더 멀리 나아가 위치되는 경우에 패턴은 동일할 것이며, 도 6a 및 도 6b를 도 7a 및 도 7b와 비교하여 동일한 패턴들이 결과로 초래될 것이다. 이후 상세한 설명에서 에러의 방향을 발견하기 위한 방식이 설명될 것이다.
도 8a 및 도 8b에서, 시준 광빔들(70, 72)의 2개의 그룹들로부터의 광 빔들은 라인들의 패턴을 형성하고, 여기서, 서로의 상부에 있어야만 하는 2개의 라인들(74, 76) 사이의 거리 L1은 광 수용 표면(56)을 따라 도 8b의 최좌측 위치에서는 서로의 상부에 있는 것으로부터 최우측 위치에서는 서로로부터 가장 먼 거리에 있는 것으로 변화한다. 이는 광 수용 평면(56)의 결과이며, 이에 따라 도 8a에 도시된 바와 같이 이미지 센서(12)는 경사진다.
도 9에서, 시준 광 빔들(70, 72)의 2개의 그룹들로부터의 광 빔들은, 시준 광빔들(70, 72)의 각각의 그룹으로부터의 라인들(74, 76)이 상이한 방향들로 기울어지기 때문에, 서로를 교차하는 라인들의 패턴을 생성한다. 광 수용 평면이 최적의 위치에 있는 경우 이러한 패턴이 이미지 센서(12)에 의해 등록되고 시스템이 여전히 도 5b의 패턴을 생성하도록 배열되면, 기울어진 라인들(74, 76)은 이미지 센서가 x-축 주위로 경사지고, x-축은 도 9에서 정의됨을 나타낸다.
평평하지 않지만 이미지 센서의 보디에 대해 외측으로 또는 내측으로 돌출하는 광 수용 평면을 갖는 이미지 센서(12)는, 다르게 광 수용 표면이 최적의 위치에 있고 평평할 때 시스템이 도 5b의 패턴을 생성하도록 배열되는 경우에, 도 10에 도시된 것과 같은 패턴을 등록할 수 있다. 센서에 의해 등록된 패턴을 연구하고 또는 분석하여 검출될 수 있는 최적의 위치로부터의 다른 편차들은, 이미지 센서(12)가 광축 둘레에서 터닝하는 경우 광축(64)에 직교하는 평면에서 이미지 센서(12)에 대해 센터링하는 것이다. 이러한 위치 에러들은 잘못 위치된 패턴으로 검출될 수 있고, 즉, 패턴의 중심은 이미지 센서의 중심에 또는 터닝된(turned) 패턴으로서 등록되지 않고, 예를 들어, 패턴은 이미지 센서(12)의 에지들에 맞추어 조절되지 않는다.
다수의 전술한 예시들에서, 최적의 위치 또는 센서 표면 불규칙성들로부터의 이미지 센서의 위치의 편차는 빠르게 그리고 용이하게 발견되고 식별될 수 있다. 그러나, 보상 방향(compensation direction)은 검출된 패턴들로부터 명백하지 않다. 예를 들어, 앞서 설명된 예시에서, 이미지 센서(12)에 의해 등록된 패턴은, 이미지 센서(12)의 위치가 광 경로를 따라서 최적의 위치로부터 특정 거리에 있는 경우에, 이러한 위치가 광 경로 앞에 또는 광 경로를 따라 더 나아가 있는지에 관계 없이, 동일하다. 전술한 실시예에서 이미지 센서의 이러한 2개의 상이한 위치들에 있는 패턴들 사이의 차이는, 위치들 중 하나의 위치에서 시준 광 빔들의 제 1 그룹에 의해 투영된 패턴으로부터의 라인이 시준 광 빔들의 제 2 그룹에 의해 투영된 패턴으로부터의 라인의 일 측에 등록되고, 이미지 센서의 다른 위치에서, 시준 광 빔들의 제 1 그룹에 의해 투영된 패턴으로부터의 라인이 시준 광 빔들의 제 2 그룹에 의해 투영된 패턴으로부터의 라인의 다른 측에 등록된다는 것이며, 광 빔들이 이미지 센서에 도달하는데 있어서의 도 6a 및 6b와 도 7a 및 7b 사이의 차이를 참고한다. 이러한 2개의 위치들 중, 이미지 센서에 의해 등록된 패턴이 나타내는 하나의 위치를 검출하기 위해, 라인이 시준 광 빔들의 제 1 그룹으로부터 또는 시준 광 빔들의 제 2 그룹으로부터 기인하는 경우에, 시스템은 특정 라인의 기원(origin)을 패턴으로, 즉, 이 실시예에서 결정하도록 배열될 수 있다.
이를 달성하기 위한 일 방법은, 시준 광 빔들의 제 1 그룹으로부터의 광 빔들이 시준 광의 제 2 그룹으로부터의 광 빔들과는 상이한 파장을 갖게 하는 것이다. 예컨대, 제 1 그룹으로부터의 광 빔들은 청색일 수 있으며, 제 2 그룹으로부터의 광 빔들은 적색일 수 있다. 상이한 그룹들로부터의 광 빔들의 다른 파장들이 이용될 수 있다. 예컨대, 시준 광의 제 1 그룹과 제 2 그룹 사이의 파장에 있어서의 차이는 25㎚와 같이 작을 수 있다.
시준 광 빔들의 상이한 그룹들로부터의 광 빔들 사이의 검출가능한 차이를 달성하기 위한 다른 방법은 시간에 있어서 상이한 시점들에서 상이한 그룹들로부터의 광 빔들을 전송하는 것이며, 예를 들어, 제 1 그룹으로부터의 광 빔들은 시간 t에서 전송되고, 제 2 그룹으로부터의 광 빔들은 시간 t+td에서 전송된다. 대안적으로, 제 1 그룹으로부터의 광 빔들은 p 시간 단위들의 기간으로 주기적으로 전송될 수 있고, 즉, 기간 수 n은 시간 p*n에서 전송되고, 제 2 그룹으로부터의 광 빔들은 동일한 주기이지만 제 1 그룹에서 이격된 기간의 1/2로 전송될 수 있고, 즉, 제 2 그룹으로부터의 기간 수 n는 시간 p*n+p/2에서 전송될 수 있다.
이를 달성하기 위한 다른 방법들은, 시준 광 빔들의 다른 그룹 보다 더 넓은 라인인들을 투영하는 시준 광 빔들의 그룹들 중 하나를 갖게 하고, 다른 그룹보다 덜한 강도의 광을 그룹들 중 하나의 그룹이 투영하게 하는 것이며, 또는 이러한 실시예들 모두를 조합하는 것이다.
이제, 도 11을 참조하여, 일 실시예에서, 이미지 센서(12)의 포지셔닝은 시준 광 빔들의 제 1 그룹의 광 빔들로부터 이미지 센서에 미리결정된 입사각으로 패턴을 투영함으로써 수행된다(단계 202). 시준 광 빔들의 제 2 그룹의 광 빔들로부터의 패턴은 또한 미리결정된 입사각으로 이미지 센서(12)에 투영된다(단계 204). 시준 광 빔들의 2개의 상이한 그룹들로부터의 광 빔들의 투영은, 시준 광 빔들의 2개의 그룹들에서 동일한 광 색상 또는 상이한 광 색상을 이용할 때, 동시에 또는 실질적으로 동시에 수행될 수 있다. 대안적으로, 광이 광 빔들의 하나의 그룹으로부터 패턴들을 서로로부터 분리하기 위해 동일한 주기로 교대로 전송될 때, 제 1 그룹의 광 빔들로부터의 패턴의 투영은 제 2 그룹으로부터의 광 빔들의 투영과는 시간에 있어서 상이한 시점에서 수행된다. 이미지 센서에서 수용된 광의 위치들이 검출되고 등록된다(단계 206). 수용된 광의 위치들은 추가적인 프로세싱을 위해 위치 프로세서(20)에 등록된다. 그후, 검출된 위치들에 기초한 조절 정보가 조절 인터페이스에 트랜스퍼된다(단계 208). 이러한 조절 정보는, 이미지 센서의 현재 위치가 잘못된 위치인지 아닌지 여부를 나타낸다. 일 실시예에서, 조절 정보는 또한 잘못 포지셔닝되지 않기 위해 이미지 센서가 어떻게 그리고 얼만큼 조절되어야 하는지 나타낸다.
조절 인터페이스로의 트랜스퍼는 이미지 또는 이미지들의 스트림을 디스플레이로 트랜스퍼하는 것을 포함할 수 있다. 이미지들 또는 이미지 스트림들을 트랜스퍼하는 경우, 조절 인터페이스는 포지셔닝 프로세서와 디스플레이 사이의 인터페이스이며, 또는 디스플레이 그 자신이다.
대안적으로, 조절 인터페이스로의 조절 정보의 트랜스퍼는 편차 거리, 편차 방향, 상이한 치수들의 편차 각도 등을 트랜스퍼하는 임의의 조합을 포함할 수 있으며, 조절 인터페이스는 이미지 센서의 포지셔닝을 조절하도록 배열된 이미지 센서 조절 어셈블리에 연결될 수 있다. 이러한 조절 어셈블리가 카메라 내부에 설계될 수 있고, 만약 그렇다면, 조절 인터페이스는 카메라와 포지셔닝 프로세서 사이의 인터페이스이다.
조절 정보가 트랜스퍼되었을 때, 이미지 센서의 위치 및/또는 경사는 트랜스퍼된 조절 정보에 기초하여 조절된다(단계 210). 조절 정보가 디스플레이 상에 디스플레이된 경우, 오퍼레이터는 이미지 센서의 위치재설정을 제어하고, 일 실시예에 따라서 디스플레이 상에서 조절 정보를 반복적으로 판독하여 이미지 센서를 반복적으로 재위치시킨다. 그후, 이미지 센서 조절 어셈블리에 트랜스퍼되는 조절 정보의 경우, 이미지 센서 조절 어셈블리는 조절 정보에 따라서 조절들을 수행한다.
이제, 도 12를 참조하여, 일 실시예에 따라서, 광원(16) 및 광원(18) 또는 광원들(16, 18)은 레이저, 시준기(252), 및 패턴 발생 렌즈(254)의 형태로 발광 디바이스(250)를 포함할 수 있다. 레이저(250)는 임의의 레이저일 수 있고, 일 실시예에서 상이한 파장의 광을 발광하는 2개의 레이저들이 광 빔들의 2개의 그룹들을 제공하기 위해 상이한 광원들(16, 18)에 대해 이용될 수 있으며, 광 빔들의 파장은 2개의 그룹들에서 상이하다. 시준기(252)는 레이저로부터의 광을 시준하기 위해 레이저(250)의 광 경로에 배열된다. 레이저로부터의 광이 레이저(250)로부터 발광함에 따라서 시준되면, 시준기(252)를 이용할 필요가 없으며, 도 13을 참조한다. 다음으로, 시준된 광은, 이미지 센서(12)에 미리결정된 패턴으로 투영하기 위해 패턴 발생 렌즈(254)를 통해서 이미지 센서(12)로 지향된다.
이미지 센서로 투영된 패턴은, 잘못된 이미지 센서의 위치로 인해 제 2 패턴에 관한 변칙들 또는 패턴의 왜곡들을 측정 또는 관찰하기 용이하게 하는 임의의 설계일 수 있다. 앞서 논의된 직선 패턴에 대해 대안적으로, 패턴은 복수의 균일하게 이격된 점들에 의해 형성될 수 있고, 도 14a를 참조하여, 2개의 패턴들의 점들 사이 또는 단일 패턴 내의 점들 사이의 거리는 이미지 센서의 잘못된 포지셔닝을 나타낼 수 있다. 이용될 수 있는 다른 패턴은 도 14b를 참조하면 단일 원이고, 도 14c를 참조하면 복수의 원들이고, 도 14d를 참조하면 십자형 패턴이고, 또는 도 14e를 참조하면 십자무늬 패턴이다. 이러한 실시예에 기초하여 고려하기 위해 추가적인 패턴들이 명백할 것이다.
몇몇 애플리케이션들에서, 카메라(15)의 피쳐들에 의해 차단되지 않고 이미지 센서(12)에 도달하기 위해 이미지 센서(12)의 광 수용 평면(56)의 관점에서 큰 입사각을 갖는 시준된 광을 형성하는 것은 어려울 수 있다. 이는, 이미지 센서(12)가 이미지 센서(12)에 의한 등록을 위해 광을 수용하도록 배열된 카메라 하우징(14) 내의 개구부로부터 큰 거리를 두고 배열될 때, 특히 어렵다. 이러한 문제는 수개의 방식들로 극복하는 것이 가능할 것이다. 하나의 방식은, 시스템의 셋업시에 광 지향 수단(270)을 포함하게 하는 것이다. 광 지향 수단은 광 경로에 평행하게 전송된 시준 광 빔(70, 72)을 재지향하도록 배열되며, 대부분의 경우들에서, 이는 또한 이미지 센서의 광 수용 평면(56)을 향하여 입사각 α을 갖는 경로로, 이미지 센서(12)의 광 수용 평면(56)에 직교하는 것을 의미한다. 입사각 α의 값은 이전의 논의들에 따라서 선택될 수 있다.
도 15에서, 광 지향 수단(270)의 일 실시예가 도시된다. 광의 재지향은 벽부들(272)의 광 빔들의 반사를 이용하여 수행된다. 광 지향 수단(270)은 물질의 굴절률로 인해 자신의 벽부들(272)을 반사시킬 수 있는 광 가이드 물질의 단편일 수 있거나, 벽부들(272)이 반사형으로 형성된 튜브일 수 있다. 상기 튜브의 단면은, 임의의 형상, 예를 들어, 원형, 정사각형, 삼각형, 타원형, 직사각형, 별 형상, 또는 임의의 다른 다각형일 수 있다.
대안적인 실시예가 도 16에 도시된다. 이 실시예에서, 광 지향 수단(272)은 작은 폭, 예를 들어, 이미지 센서(12)의 폭과 유사한 폭을 갖도록 설계된다. 광 지향 수단(27)을 작게 하는 하나의 이유는, 유용한 광 빔들을 발생시키기 위한 이미지 센서(12)의 이미지 광 수용 평면(56)에 충분히 가깝게 광 지향 수단을 위치시키기 위해 소형 카메라 개구를 관통하는 삽입을 가능하게 하기 위함이다. 이러한 실시예는, 인입하는 광 방향을 원하는 입사각을 갖는 광 빔들로 재지향시키기 위해 구체적으로 선택된 입사각들에서 광 빔들의 굴절 및 반사를 허용하는 광 가이드 물질의 일 보디 또는 개별적인 보디들의 어레인지먼트일 수 있다. 광 지향 수단(270)의 이해를 용이하게 하기 위해, 일 특정 광 빔의 광 지향 수단을 관통하는 경로가 이제 설명된다. 광 빔은, 표면(274)(여기서, 광 빔이 굴절됨)에서 광 지향 수단에 진입하여 표면(276)(여기서, 광 빔은 다시 한 번 굴절되고, 원하는 방향을 갖는 그 광 빔은 광 지향 수단으로부터 나와서 이동하게 되도록, 입사각은 꽤 큼)을 향해 지향된다. 도 17에 도시된 광 지향 수단(270)의 실시예는 도 16에 도시된 실시예와 유사하다. 이 실시예는 도 17의 실시예와 같이 작은 폭을 가지며, 도 17의 실시예에 더해, 이 실시예의 높이는 그보다 더 작다. 다른 차이는 광 경로들의 조직 내에 있다. 도 16의 실시예에서, 광 지향 수단(270)의 출구 부분의 일 측의 광 경로들(70)은 모두 광 지향 수단(270)의 출구 부분의 다른 측으로부터 광 경로들(72)을 향해서 지향된다. 도 17의 실시예에서, 다른 광 경로(72)를 향해서 지향된 광 경로(70)는 항상 서로 나란히 광 지향 수단(270)을 빠져나가고, 즉, 어떠한 다른 광 경로도 그 사이에 위치되지 않는다.
앞서 설명된 것들과 같이 광 지향 수단을 구현하는 시스템에서, 광 지향 수단은 광원으로서 관찰될 수 있다. 실시예가 시준 광의 2개의 상이한 그룹들을 이용하고 이에 따라 광 지향 수단은 임의의 사전에 설명된 방식으로 서로로부터 구별되는 시준 광의 2개의 그룹들을 출력하는 경우, 광 지향 수단은 2개의 별도의 광원들로서 관찰될 수 있다.

Claims (15)

  1. 카메라(15) 내에서 광 수용 평면(56)을 포함하는 이미지 센서(12)를 포지셔닝하기 위한 방법으로서,
    제 1 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 1 그룹(40)을 상기 이미지 센서(12)의 상기 광 수용 평면(56)에 상기 제 1 그룹에 대한 입사각(α1)으로 투영하는 단계,
    제 2 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 2 그룹(42)을 상기 이미지 센서(12)의 상기 광 수용 평면(56)에 상기 제 2 그룹에 대한 입사각(α2)으로 투영하는 단계,
    상기 이미지 센서(12)의 상기 광 수용 평면(56) 상에, 투영된 광 빔들(40, 42)의 위치들을 등록하는 단계,
    상기 이미지 센서(12)의 현재 위치가 잘못된 위치인지 아닌지 나타내는 조절 정보를 상기 등록된 위치들에 기초하여 발생시키는 단계, 및
    상기 조절 정보에 기초하여 상기 이미지 센서(12)의 위치를 조절하는 단계를 포함하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  2. 제 1 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하는 접근의 제 1 방향을 갖고,
    상기 실질적으로 평행한 광 빔들의 제 2 그룹(42)은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하는 접근의 제 2 방향을 가지며,
    상기 제 1 방향 및 상기 제 2방향은 교차하는 방향들인,
    이미지 센서를 포지셔닝하기 위한 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하는 접근의 제 1 방향을 갖고, 상기 제 1 방향은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하여 실질적으로 직교하게 지향된(directed) 제 1 성분 및 상기 제 1 성분에 직교하게 지향된 제 2 성분을 갖고,
    상기 실질적으로 평행한 광 빔들의 제 2 그룹(42)은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하는 접근의 제 2 방향을 갖고, 상기 제 2 방향은 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하여 실질적으로 직교하게 지향된 제 1 성분 및 상기 제 1 성분에 직교하게 지향된 제 2 성분을 갖고,
    상기 제 1 방향의 상기 제 2 성분의 방향은 상기 제 2 방향의 상기 제 2 성분의 방향에 반대 방향인 방향을 갖는,
    이미지 센서를 포지셔닝하기 위한 방법.
  4. 제 1 항에 있어서,
    상기 제 1 그룹(40) 및 상기 제 2 그룹(42) 각각의 상기 실질적으로 평행한 광 빔들의 입사각(α1, α2)은 적어도 30도인,
    이미지 센서를 포지셔닝하기 위한 방법.
  5. 제 1 항에 있어서,
    상기 제 1 그룹(40) 및 상기 제 2 그룹(42) 각각의 상기 실질적으로 평행한 광 빔들의 입사각(α1, α2)은 적어도 45도인,
    이미지 센서를 포지셔닝하기 위한 방법.
  6. 제 1 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)의 상기 광 빔들의 색상은 상기 실질적으로 평행한 광 빔들의 제 2 그룹(42)의 상기 광 빔들의 색상과는 상이한,
    이미지 센서를 포지셔닝하기 위한 방법.
  7. 제 6 항에 있어서,
    상기 색상의 차는 상기 실질적으로 평행한 광 빔들의 상기 2개의 그룹들(40, 42; 70, 72)의 색상들 사이의 파장에 있어서의 적어도 25㎚ 차에 대응하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  8. 제 1 항에 있어서,
    상기 이미지 센서(12)의 상기 광 수용 평면(56)으로의 상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)의 투영은 제 1 시간 기간 동안 수행되고,
    상기 이미지 센서(12)의 상기 광 수용 평면(56)으로의 상기 실질적으로 평행한 광 빔들의 제 2 그룹(42)의 투영은 제 2 시간 기간 동안 수행되고,
    상기 제 1 시간 기간은 상기 제 2 시간 기간에 포함되지 않은 적어도 하나의 시간 기간을 포함하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  9. 제 1 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40) 및 제 2 그룹(42)을 투영하는 동작은 광을 시준하는 동작을 포함하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  10. 제 1 항에 있어서,
    상기 미리결정된 패턴들 중 적어도 하나는 상기 이미지 센서(12)의 유효 표면의 일 에지로부터 상기 이미지 센서(12)의 상기 유효 표면의 반대 에지로 실질적으로 연신하는 길이를 갖는 평행한 라인들을 포함하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  11. 제 1 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)을 이용하여 투영된 패턴과 상기 실질적으로 평행한 광 빔들의 제 2 그룹(42)을 이용하여 투영된 패턴 사이의 거리를 결정하는 단계, 및 상기 패턴들 사이의 상기 거리에 기초하여 적어도 하나의 잘못된 상태를 결정하는 단계를 더 포함하는,
    이미지 센서를 포지셔닝하기 위한 방법.
  12. 제 1 항에 있어서,
    상기 실질적으로 평행한 광 빔들의 제 1 그룹(40)을 투영하는 동작은, 상기 이미지 센서(12)의 상기 광 수용 평면(56)에 실질적으로 직교하는 각도에서 상기 카메라(15)로 실질적으로 평행한 광 빔들을 전송하는 것, 상기 이미지 센서(12)의 상기 광 수용 평면(56)을 향하여 상기 입사각(α1)으로 재지향(redirection) 표면(272, 274; 276, 278)에서 상기 실질적으로 평행한 광 빔들을 재지향시키는 것을 포함하고,
    상기 광 빔들의 상기 재지향은 상기 광 빔들이 상기 카메라의 렌즈 마운트(lens mount)를 통과할 때까지 수행되지 않는,
    이미지 센서를 포지셔닝하기 위한 방법.
  13. 카메라 내에서 이미지 센서(12)의 위치를 측정하기 위한 측정 시스템(10)으로서,
    제 1 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 1 그룹(40)을 상기 이미지 센서(12)를 향해서 발광하도록 배열된 제 1 광원(16),
    제 2 미리결정된 패턴을 나타내는 실질적으로 평행한 광 빔들의 제 2 그룹(42)을 상기 이미지 센서(12)를 향해서 발광하도록 배열된 제 2 광원(18), 및
    상기 이미지 센서(12)에 의해 캡쳐된 이미지 데이터를 수신하도록 구성된 입력부를 포함하고,
    상기 제 1 광원(16) 및 상기 제 2 광원(18)은, 각각의 광원(16, 18)으로부터의 광 빔들이 서로 다른 광원(16, 18)으로부터의 광빔들과 교차하게 하도록 지향되는,
    이미지 센서의 위치를 측정하기 위한 측정 시스템.
  14. 제 13 항에 있어서,
    상기 제 1 광원(16)은 발광 디바이스(250), 광 시준기(252) 및 패턴 발생기(254)를 포함하는,
    이미지 센서의 위치를 측정하기 위한 측정 시스템.
  15. 제 13 항 또는 제 14 항에 있어서,
    상기 제 1 광원(16)은 상기 발광 디바이스(250)로부터의 광 빔들을 상기 제 2 광원(18)으로부터의 광 빔들을 교차시키는 방향으로 재지향시키도록 배열된 광 지향 수단(270)을 포함하는,
    이미지 센서의 위치를 측정하기 위한 측정 시스템.
KR1020130089790A 2012-08-06 2013-07-29 이미지 센서 포지셔닝 장치 및 방법 KR101911006B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP12179328.5 2012-08-06
EP12179328.5A EP2696590B1 (en) 2012-08-06 2012-08-06 Image sensor positioning apparatus and method

Publications (2)

Publication Number Publication Date
KR20140019227A true KR20140019227A (ko) 2014-02-14
KR101911006B1 KR101911006B1 (ko) 2018-10-23

Family

ID=46601709

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130089790A KR101911006B1 (ko) 2012-08-06 2013-07-29 이미지 센서 포지셔닝 장치 및 방법

Country Status (6)

Country Link
US (1) US9602810B2 (ko)
EP (1) EP2696590B1 (ko)
JP (1) JP6286148B2 (ko)
KR (1) KR101911006B1 (ko)
CN (1) CN103581659B (ko)
TW (1) TWI582525B (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107407553B (zh) 2014-10-24 2020-07-28 魔眼公司 距离传感器
TW201706563A (zh) 2015-05-10 2017-02-16 麥吉克艾公司 距離感測器(一)
US10488192B2 (en) * 2015-05-10 2019-11-26 Magik Eye Inc. Distance sensor projecting parallel patterns
KR102543275B1 (ko) 2016-12-07 2023-06-16 매직 아이 인코포레이티드 평행 패턴들을 투사하는 거리 센서
US11199397B2 (en) 2017-10-08 2021-12-14 Magik Eye Inc. Distance measurement using a longitudinal grid pattern
KR20200054324A (ko) 2017-10-08 2020-05-19 매직 아이 인코포레이티드 다중 이동형 센서들을 포함한 센서 시스템의 캘리브레이션
US10679076B2 (en) 2017-10-22 2020-06-09 Magik Eye Inc. Adjusting the projection system of a distance sensor to optimize a beam layout
EP3769121A4 (en) 2018-03-20 2021-12-29 Magik Eye Inc. Distance measurement using projection patterns of varying densities
WO2019182871A1 (en) 2018-03-20 2019-09-26 Magik Eye Inc. Adjusting camera exposure for three-dimensional depth sensing and two-dimensional imaging
CN110300298B (zh) * 2018-03-23 2020-10-16 致伸科技股份有限公司 影像获取模块检测系统及其方法
KR20210008025A (ko) 2018-06-06 2021-01-20 매직 아이 인코포레이티드 고밀도 프로젝션 패턴들을 사용한 거리 측정 방법
US11475584B2 (en) 2018-08-07 2022-10-18 Magik Eye Inc. Baffles for three-dimensional sensors having spherical fields of view
CN111351441A (zh) * 2018-12-20 2020-06-30 大连因特视智能传感科技有限公司 基于视觉的厚度测量设备及方法
EP3911920B1 (en) 2019-01-20 2024-05-29 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
JP7099367B2 (ja) * 2019-03-06 2022-07-12 株式会社ダイフク 検査システム
US11474209B2 (en) 2019-03-25 2022-10-18 Magik Eye Inc. Distance measurement using high density projection patterns
JP2022532725A (ja) 2019-05-12 2022-07-19 マジック アイ インコーポレイテッド 3次元深度マップデータの2次元画像上へのマッピング
US11320537B2 (en) 2019-12-01 2022-05-03 Magik Eye Inc. Enhancing triangulation-based three-dimensional distance measurements with time of flight information
US11580662B2 (en) 2019-12-29 2023-02-14 Magik Eye Inc. Associating three-dimensional coordinates with two-dimensional feature points
EP4097681A4 (en) 2020-01-05 2024-05-15 Magik Eye Inc TRANSFER OF THE COORDINATE SYSTEM OF A THREE-DIMENSIONAL CAMERA TO THE IMPACT POINT OF A TWO-DIMENSIONAL CAMERA

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4978224A (en) * 1987-07-14 1990-12-18 Sharp Kabushiki Kaisha Method of and apparatus for inspecting mounting of chip components
JP2006090744A (ja) * 2004-09-21 2006-04-06 Sunx Ltd 光学測定装置及び光ピックアップレンズ調整装置
US20090161193A1 (en) * 2007-12-19 2009-06-25 Yoshihiro Maeda Projection display system for modulating light beams from plural laser light sources
JP2010251941A (ja) * 2009-04-14 2010-11-04 Hitachi Kokusai Electric Inc テレビジョンカメラ装置
KR20120080447A (ko) * 2011-01-07 2012-07-17 주식회사 퓨런티어 카메라 모듈의 위치 측정 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0243511A (ja) * 1988-08-04 1990-02-14 Fuji Electric Co Ltd イメージセンサ対の光学系との位置合わせ方法
EP0412756B1 (en) * 1989-08-07 1995-10-25 Canon Kabushiki Kaisha Exposure apparatus
US5225892A (en) * 1990-02-05 1993-07-06 Canon Kabushiki Kaisha Positional deviation detecting method
US5243195A (en) * 1991-04-25 1993-09-07 Nikon Corporation Projection exposure apparatus having an off-axis alignment system and method of alignment therefor
US5502311A (en) * 1992-01-17 1996-03-26 Nikon Corporation Method of and apparatus for detecting plane position
JPH0665807U (ja) * 1993-02-25 1994-09-16 トヨタ車体株式会社 測定装置
DE10228882A1 (de) * 2002-06-27 2004-02-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Kalibrierung von hochgenauen photosensitiven Sensoren
US7136157B2 (en) * 2003-08-22 2006-11-14 Micron Technology, Inc. Method and apparatus for testing image sensors
US20060070417A1 (en) * 2004-07-16 2006-04-06 John Nieminen Flatness monitor
US7398177B2 (en) * 2004-10-15 2008-07-08 Asml Netherlands B.V. Measurement substrate, substrate table, lithographic apparatus, method of calculating an angle of an alignment beam of an alignment system, and alignment verification method
CN101489040A (zh) * 2008-01-15 2009-07-22 富士胶片株式会社 调节图像传感器位置的方法,制造照相机组件的方法和设备,以及照相机组件
US8675077B2 (en) * 2008-07-23 2014-03-18 Flir Systems, Inc. Alignment metrology and resolution measurement system for imaging arrays
US8493482B2 (en) * 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
JP6092111B2 (ja) * 2010-10-26 2017-03-08 マッパー・リソグラフィー・アイピー・ビー.ブイ. リソグラフィシステム、変調装置およびファイバ固定基板を製造する方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4978224A (en) * 1987-07-14 1990-12-18 Sharp Kabushiki Kaisha Method of and apparatus for inspecting mounting of chip components
JP2006090744A (ja) * 2004-09-21 2006-04-06 Sunx Ltd 光学測定装置及び光ピックアップレンズ調整装置
US20090161193A1 (en) * 2007-12-19 2009-06-25 Yoshihiro Maeda Projection display system for modulating light beams from plural laser light sources
JP2010251941A (ja) * 2009-04-14 2010-11-04 Hitachi Kokusai Electric Inc テレビジョンカメラ装置
KR20120080447A (ko) * 2011-01-07 2012-07-17 주식회사 퓨런티어 카메라 모듈의 위치 측정 장치

Also Published As

Publication number Publication date
US20140036096A1 (en) 2014-02-06
TWI582525B (zh) 2017-05-11
TW201411272A (zh) 2014-03-16
KR101911006B1 (ko) 2018-10-23
EP2696590A1 (en) 2014-02-12
EP2696590B1 (en) 2014-09-24
US9602810B2 (en) 2017-03-21
CN103581659B (zh) 2017-05-31
CN103581659A (zh) 2014-02-12
JP6286148B2 (ja) 2018-02-28
JP2014033447A (ja) 2014-02-20

Similar Documents

Publication Publication Date Title
KR101911006B1 (ko) 이미지 센서 포지셔닝 장치 및 방법
US7489406B2 (en) Optical lens system and position measurement system using the same
US6862097B2 (en) Three-dimensional shape measuring method, and three-dimensional shape measuring apparatus
JP5559840B2 (ja) 画像センサのチルトを求めるための方法
JP2014006134A (ja) 光学測定装置
JP6030471B2 (ja) 形状測定装置
WO2014147902A1 (ja) レンズ傾き検出装置およびレンズ傾き検出方法
US11047674B2 (en) Method and apparatus for measuring the height of a surface
KR100855849B1 (ko) 변위측정장치 및 그것을 이용한 형상검사장치
JP2010014505A (ja) 三次元形状測定装置及び三次元形状測定方法
US11493338B2 (en) Tilt detection apparatus and method thereof
US7212294B2 (en) Method for determination of the level of two or more measurement points, and an arrangement for this purpose
KR100790706B1 (ko) 렌즈 초점 거리 측정 장치
JPS63225108A (ja) 距離・傾斜角測定器
CN112710237B (zh) 对准系统及对准方法
JP2009042128A (ja) 高さ測定装置
EP3637044B1 (en) Multi-image projector and electronic device having the multi-image projector
KR101133562B1 (ko) 비점수차 렌즈를 이용한 형상측정장치
KR100738387B1 (ko) 비축 조사에 의한 파면 측정장치
CN115876125A (zh) 一种镜片准直装置
JPH01313706A (ja) 3次元形状検知光学システム
JP2015153432A (ja) 光学ユニットの製造方法および光学ユニットの調整装置

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant