KR100891919B1 - 이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한방법과 대응 프로그램 생성물 - Google Patents

이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한방법과 대응 프로그램 생성물 Download PDF

Info

Publication number
KR100891919B1
KR100891919B1 KR1020077002658A KR20077002658A KR100891919B1 KR 100891919 B1 KR100891919 B1 KR 100891919B1 KR 1020077002658 A KR1020077002658 A KR 1020077002658A KR 20077002658 A KR20077002658 A KR 20077002658A KR 100891919 B1 KR100891919 B1 KR 100891919B1
Authority
KR
South Korea
Prior art keywords
image
image data
data2
data1
camera element
Prior art date
Application number
KR1020077002658A
Other languages
English (en)
Other versions
KR20070041552A (ko
Inventor
조우니 라피
자스카 칸가스비에리
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20070041552A publication Critical patent/KR20070041552A/ko
Application granted granted Critical
Publication of KR100891919B1 publication Critical patent/KR100891919B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

본 발명은 전자 장치(10)에 관한 것이며, 상기 전자 장치는- 이미징 대상(17)으로부터 이미지 데이터(DATA1)를 형성하기 위해 적어도 하나의 카메라 요소(CAM1)를 포함하는 카메라 수단(12),- 세트 초점 거리(set focal length)에 따른 제 1 렌즈 장치(F1)로서, 상기 카메라 수단(12)과 관련하여 구성되는 제 1 렌즈 장치(F1), 및 상기 이미지 데이터(DATA1)를 이미지 정보(IMAGE)로 처리하는 데이터-처리 수단(11)으로서, 상기 처리가 예컨대, 상기 이미징 대상(17)의 주밍을 포괄하는 데이터-처리 수단(11)을 포함한다. 상기 카메라 수단(12)이 적어도, 제 2 렌즈 장치(F2)가 설치되는 제 2 카메라 요소(CAM2)를 추가로 포함하고, 상기 제 2 렌즈 장치(F2)의 초점 거리가 설정되는 방식에 있어서 상기 제 1 렌즈 장치(F1)의 초점 거리와 다르고, 그리고 상기 제 1 카메라 요소(CAM1) 및 제 2 카메라 요소(CAM2)에 의해 형성되는 이미지 데이터 세트들(DATA1, DATA2)로 부터 상기 이미징 대상(17)의 필요한 주밍(zooming)에 의하는 상기 이미지 정보(IMAGE)가 상기 데이터-처리 수단(11)에 의해 처리되도록 구성된다. 게다가, 본 발명은 또한 방법 및 프로그램 생성물에 관한 것이다.

Description

이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한 방법과 대응 프로그램 생성물{Electronic device and a method in an electronic device for forming image information, and a corresponding program product}
본 발명은 전자 장치에 관한 것이며, 상기 전자 장치는
- 이미징 대상(imaging subject)로부터 이미지 데이터를 형성하기 위해 적어도 하나의 카메라 요소(camera element)를 지니는 카메라 수단,
- 세트 초점 거리(set focal length)에 따른 제 1 렌즈 장치로서, 상기 카메라 수단과 관련되어 구성되는 제 1 렌즈 장치,
- 상기 이미지 데이터를 이미지 정보로 처리하는 데이터-처리 수단으로서, 상기 처리가 예컨대, 상기 이미징 대상의 주밍(zooming)을 포괄하는 데이터-처리 수단을 포함한다.
또한, 본 발명은 방법 및 대응 프로그램 생성물에 관한 것이다.
단일 카메라 요소(single camera element)는 몇몇 기존 전자 장치들에 의해 공지되어 있으며, 개별적인 일례는 카메라 전화들이다. 이와 관련되는 렌즈들의 세트(set)는 예컨대, 어떠한 종류의 주밍 가능성도 없이 본질적으로 고정(fix)되도록 구성된다.
디지털 주밍은 현재 몇몇 공지된 전자 장치 타입들에 사용된다. 그러나 이는 일정한 공지된 결점들을 지닌다. 이러한 결점들은 예컨대, 이미지 해상력(image definition)에 관한 것이다. 이미지에 대해 디지털 주밍이 수행될 때, 픽셀 네트워크(pixel network)는 덜 조밀해 진다. 결과적으로, 상기 이미지 데이터의 보간(interpolation)으로서 예컨대, 상기 데이터에 추가적 픽셀이 발생하는 보간이 필요하게 된다. 이는 줌 데이터의 부정확성을 초래한다.
카메라 수단이 갖추어진 기존 전자 장치들, 정확히 예를 들면 이동국들은 매우 얇아진 특징이 있는 것으로 알려져 있다. 그러한 얇은 속성을 지닌 장치의 렌즈 세트에 축 동작 기능(axial movement functionality)을 구성하는 것은 도전해 볼만한 일이다. 이는 상기 장치의 두께를 증가시키지 않고는 실제로 불가능하다. 또한 그러한 장치들에 광학적으로 구현되는 주밍 기능을 부가하는 것은 그들의 기계적 복잡도를 증가시키는 것이 일반적이다. 게다가, 센서들 및 그들의 렌즈 세트들은 또한 여러 방식으로 쉽게 이미지를 왜곡할 수 있다.
본 발명은 카메라 수단이 갖추어진 새로운 타입의 전자 장치는 물론, 상기 전자 장치에서 이미지 정보를 형성하는 방법을 창안하도록 의도된 것이며, 본 발명에 의하면 종래의 단일-센서 구현예들을 사용할 때보다 실질적으로 더 정확한 이미지 정보를 생성하는 것이 가능하다. 본 발명에 따른 전자 장치의 특징적인 특성들은 첨부된 청구의 범위 제1항에 언급되어 있는 반면, 상기 전자 장치에 적용되는 방법의 특징적인 특성들은 청구의 범위 제8항에 언급되어 있다. 게다가, 본 발명은 또한 프로그램 생성물에 관한 것이며, 상기 프로그램 생성물의 특징적인 특성들은 첨부된 청구의 범위 제16항에 언급되어 있다.
본 발명에 따른 전자 장치는, 이미징 대상으로부터 이미지 데이터를 형성하기 위해 적어도 하나의 카메라 요소를 지니고 있는 카메라 수단; 세트 초점 거리에 따른 제 1 렌즈 장치로서, 상기 카메라 수단과 연결되어 구성되는 제 1 렌즈 장치; 상기 이미지 데이터를 이미지 정보로 처리하는 수단으로서, 상기 처리가 예컨대, 상기 이미징 대상의 주밍(zooming)을 포괄하는 처리 수단을 포함한다. 상기 장치의 상기 카메라 수단은 적어도, 제 2 렌즈 장치가 설치되는 제 2 카메라 요소를 추가적으로 지니고 있으며, 상기 제 2 렌즈 장치의 초점 거리는 설정되는 방식에 있어서 상기 제 1 렌즈 장치의 초점 거리와 다르다. 상기 장치의 제 1 카메라 요소 및 제 2 카메라 요소에 의해 형성된 이미지 데이터 세트로부터, 상기 이미지 대상의 필요한 주밍에 의한 이미지 정보가 상기 데이터-처리 수단을 사용함으로써 처리되도록 구성된다.
또한, 본 발명에 따른 방법에 있어서, 카메라 수단은 이미징 대상의 이미지 데이터를 형성하기 위해 이미징(imaging)을 수행하도록 사용되고, 상기 카메라 수단은 세트 초점 거리를 지니는 제 1 렌즈 장치가 설치되는 적어도 하나의 카메라 요소를 포함하고 그리고 상기 형성된 이미지 데이터는 예컨대, 상기 이미징 대상을 줌하도록 처리된다. 상기 방법에 있어서, 이미징은 적어도 제 2 카메라 요소를 용하여 추가로 수행되며, 상기 제 2 카메라 요소와 연결되는 렌즈 장치의 초점 거리는 설정 방식에 있어서 상기 제 1 렌즈 장치의 초점 거리와 다르고 그리고 필요한 주밍에 의한 이미지 정보가 상기 제 1 카메라 요소 및 상기 제 2 카메라 요소를 사용하여 형성된 이미지 데이터 세트들로부터 처리된다.
또한, 이미지 데이터 처리를 위한 프로그램 생성물로서 따라서 본 발명과 또한 관계가 있는 본 발명에 따른 프로그램 생성물은, 저장 매체 및 상기 저장 매체에 기록된 프로그램 코드로서 적어도 하나의 카메라 요소를 사용함으로써 형성된 이미지 데이터를 처리하기 위한 프로그램 코드를 포함하고, 상기 프로그램 생성물에 의해 상기 이미지 데이터는 이미지 정보로 처리되도록 구성되며, 상기 처리는 예컨대, 이미지 대상의 주밍을 포함한다. 상기 프로그램 코드는 설정 방식에 있어서 두 세트의 이미지 데이터를 서로 결합하도록 구성되며, 상기 이미지 데이터 세트들은 서로 다른 초점 거리를 지니는 두 개의 카메라 요소들을 사용함으로써 생성된다.
게다가, 본 발명은 또한 본 발명에 따른 장치에서의 카메라 요소의 사용, 또는 본 발명에 따른 방법의 몇몇 하위 단계(sub-stage)와 관련되는 카메라 요소의 사용에 관한 것이다.
본 발명에 따른 장치의 데이터-처리 수단을 사용하여, 이미지 데이터가 몇몇 상이한 방식으로 결합될 수 있다. 제 1 실시예에 따르면, 이미지 데이터에 의해 형성되는 이미지 영역(image region)들은 필요한 주밍에 의한 이미지 정보를 형성하기 위해 서로 부착(attach)될 수 있다. 제 2 실시예에 따르면, 이미지 데이터 세트들의 픽셀 정보는 필요한 주밍에 의한 이미지 정보를 형성하기 위하여 연산을 통해 적어도 부분적으로 적응될 수 있다.
서프라이징 방식(surprising manner)에 있어서, 본 발명은 전자 장치들에 줌 기능을 생성하도록 한다. 이전에는 사이즈 팩터(size factor)들이 예컨대, 카메라 수단이 갖추어진 작은 전자 장치들에 줌 기능을 구현하는 것을 방해했지만, 본 발명으로 인하여, 카메라 수단이 갖추어진 작은 전자 장치들에도 또한 줌 기능이 구성될 수 있다. 본 발명에 따른 장치에 의하여, 줌된(zoomed) 즉, 잘라내기된(croped) 그리고 확대된(enlarged) 이미지 정보의 해상력(definition) 및 품질(quality)은 예컨대, 광학적 주밍을 사용하여 생성된 이미지 정보의 해상력 및 화질보다 실질적으로 나쁘지 않다. 하지만, 본 발명에 의해 달성되는 해상력은 이미지 영역의 적어도 일 부분에서, 종래 기술에 따른 디지털 주밍에서 보다 우수하다.
또한, 본 발명에 적용되는 이미지-데이터-처리 동작들의 사용은 이미지 데이터의 부드러운(smooth) 그리고 고른(seamless) 연결을 달성한다. 이는 장치의 카메라 수단이 질적으로 다른 경우들에 특히 중요한 것이다. 또한, 여러 종류의 왜곡들에 대한 보정이 가능하다.
달성되는 추가적 장점들이 설명 부분에서 항목화되겠지만, 본 발명에 따른 전자 장치, 방법, 그리고 프로그램 생성물의 특징적인 다른 특성들은 첨부된 청구의 범위에 의해 명확해 질 것이다.
이하에서, 첨부도면들을 참조하여 본 발명이 더 상세히 검토되겠지만, 본 발명은 이하에 개시되는 실시예에 국한되는 것은 아니다.
도 1은 본 발명에 따른 전자 장치의 일례를 보여주는 도면이다.
도 2는 본 발명에 따른 방법의 일례에 관한 개략적인 흐름도이다.
도 3은 본 발명에 따른 방식으로 이미지 데이터의 결합에 관한 애플리케이션의 일례를 보여주는 도면이다.
최근, 다수의 전자 장치(10)들은 카메라 수단(12)을 포함하고 있다. 그러한 장치들의 예들은, 디지털 카메라들 이외에 이동국들, PDA(Personal Digital Assistant) 장치들, 및 유사 '스마트 커뮤니케이터(smart communicator)들'을 포함한다. 덧붙여 말하자면, '전자 장치(electronic device)'라는 개념은 매우 넓게 이해될 수 있다. 예컨대, 디지털-이미징 능력이 갖추어진 장치, 또는 디지털-이미징 능력이 갖추어질 수 있는 장치일 수 있다. 이하에서, 본 발명은 이동국(10)과 관련하여 일례에 의해 기술된다.
도 1에는, 장치(10)의 기능들의 개략적인 일례가 본 발명에 관련되는 만큼 도시되어 있다. 상기 장치(10)는 기능 컴포넌트들을 포함할 수 있으며, 이들은 공지된 것으로서 도 1에 도시되어 있다. 이들과 관련하여, 이들 중에, 본 발명에 따른 장치(10)의 구현예와 관련하여 본질적인 컴포넌트들이 되는 것으로서 카메라 수단(12) 및 데이터-처리 수단(11)이 언급될 수 있으며, 이들에 의해 프로그램 생성물(30)이 하드웨어(HW) 또는 소프트웨어(SW) 레벨로 구현되어, 상기 카메라 수단(12)에 의해 형성된 이미지 데이터(DATA1, DATA2)를 처리하도록 한다.
본 발명에 따른 경우에 있어서, 카메라 수단'(12)이라는 일반 용어는 일반적 으로 디지털 이미징을 수행할 때, 적어도 두 개의 카메라 요소들(CAM1, CAM2)을 지칭하며, 일반적으로는 카메라 모듈들과 관련되는 그러한 모든 기술을 지칭한다. 상기 카메라 수단(12)은 상기 장치(10)에 영구적으로 연결될 수 있으며, 그렇지 않으면 이들은 또한 상기 장치(10)에 분리식으로 부착될 수 있다.
본 발명에 따른 솔루션에 있어서, 상기 카메라 수단(12)은 적어도 두 개의 카메라 요소들(CAM1, CAM2)을 포함한다. 상기 카메라들(CAM1, CAM2)은 예컨대, 상기 장치(10)와 관련하여 주로 동일 이미징 방향으로 향해진다. 게다가 상기 양 카메라 요소들(CAM1, CAM2)은 그들 자신의 독립 이미지 센서들(12.1, 12.2)을 포함할 수 있으며, 상기 이미지 센서들은 물리적으로 서로 분리된다. 반면에, 장치로서 상기 장치에서 상기 카메라 유닛들(CAM1, CAM2)이 본질적으로 동일 모듈형 카메라 컴포넌트에 있는 반면, 그러나 여전히 본질적으로 두 개의 카메라 요소들(CAM1, CAM2)을 형성하는 장치가 또한 가능할 수 있다.
상기 카메라 요소들(CAM1, CAM2), 또는 더 특정적으로는 이들에 속하는 이미지 센서들(12.1, 12.2)은 동일할 수 있으며 상기 장치(10)에서 주로 공통 노출 방향을 향하여, 상기 장치의 동일면에 배치될 수 있다. 게다가, 상기 센서들(12.1, 12.2)은, 상기 장치(10)가 그 기본 위치(예컨대, 이동국(10)의 경우에는 수직 위치)에 있을 때, 동일 수평 레벨 상에 있을 수 있으며, 따라서 서로 인접할 수 있다.
게다가, 상기 장치(10)는 또한, 디스플레이(19)를 포함할 수 있으며, 이는 공지된 타입의 디스플레이이거나 또는 아직 개발중인 타입의 디스플레이일 수 있 고, 상기 디스플레이에 의해 정보가 상기 장치(10)의 사용자에게 시각화될 수 있다. 하지만, 상기 디스플레이(19)는 본 발명과 관련하여 결코 필수적인 것은 아니다. 그러나 상기 장치(10)의 디스플레이(19)는 예컨대, 이미징에 앞서 뷰파인더(view finder) 역할을 하는 상기 디스플레이(19)로 이미징 대상(17)을 검사할 수 있게 되는 장점을 달성할 수 있다. 디스플레이 없는 장치의 일례로서, 감시 카메라(surveillance camera)들을 참조할 수 있으며, 본 발명은 또한 이들에도 적용될 수 있다. 게다가, 상기 장치(10)는 또한, 처리기 기능(13)을 포함할 수 있으며, 상기 처리기 기능은 상기 장치(10)의 여러 동작들(14)을 제어하는 기능들이다.
상기 카메라 수단(12) 및 그들과 관련하여 데이터-전송 인터페이스로서 구성되는 데이터-처리 수단, 예컨대 이미지-처리 체인(image-processing chain; 11)은, 그 자체로 공지되어 있는 컴포넌트들(CCD, CMOS)로 형성될 수 있고, 그리고 프로그램 모듈들로 형성될 수 있다. 이들은 정지된 이미지 데이터와 그리고 가능한 한 또한 움직이는 이미지 데이터(DATA1, DATA2)를 캡처(capture)하고 그리고 처리하는데 사용될 수 있으며, 또한 그들로부터 필요한 종류의 이미지 정보(IMAGE1, IMAGE2, IMAGE)를 형성하는데 사용될 수 있다. 상기 이미지 데이터(DATA1, DATA2)를 필요한 종류의 이미지 정보(IMAGE)로 처리하는 것은 공지된 처리 기능들은 물론, 본 발명에 따른 처리 기능들, 예컨대 이미징 대상(17)을 필요한 만큼 잘라내기(cropping) 및 잘라내기된 이미지 영역을 필요한 이미지 사이즈로 확장하기를 포함한다. 이러한 동작들은 집합적인 타이틀인 주밍(zooming)으로 지칭될 수 있다.
주밍은 프로그램(30)을 사용하여 수행될 수 있다. 상기 프로그램(30), 즉 상 기 프로그램을 형성하는 코드는 상기 장치(10) 저장 매체(MEM)에, 예컨대 업데이트가능 비휘발성 반도체 메모리에 기록될 수 있으며, 또는 다른 한편으로 상기 코드는 또한 HW 구현으로서 회로(11)에 직접 버닝될 수 있다. 상기 코드는 설정 시퀀스(set sequence)로 수행되는 명령 그룹으로 구성되며, 이에 의해 선택된 처리 알고리즘에 따른 데이터 처리가 달성된다. 나중에 더 상세히 설명되겠지만, 상기 경우에 데이터 처리는 주로, 설정된 방식에 의한 데이터 세트들(DATA1, DATA2)을 조합하여 그들로부터 이미지 정보(IMAGE)를 형성하는 것으로 이해될 수 있다.
상기 이미지 정보(IMAGE)는 예컨대, 상기 장치(10)의 가능한 디스플레이(19)를 사용하여 검사될 수 있다. 또한, 상기 이미지 데이터는 상기 장치(10)의 메모리 매체에 선택된 저장 포맷으로 저장될 수 있으며, 그렇지 않고 상기 장치(10)에 통신 특성들이 갖추어져 있다면, 상기 이미지 데이터는 또한 다른 장치로, 예컨대 디이터-전송 네트워크를 통해 송신될 수 있다. 이미지 데이터(DATA1, DATA2)의 처리를 수행하는 이미징 체인(11)은, 현재 선택된 이미지 모드 또는 이미징 파라미터 세팅들에 따라, 상기 카메라 수단(12)에 의해 이미징 방향으로부터의 이미징 대상(17)으로 형성된 이미지 데이터(DATA1, DATA2)를 설정 방식으로 처리하는데 사용된다. 상기 세팅들을 수행하기 위해, 상기 장치(10)는 선택/세팅 수단(selection/setting means; 15)을 포함한다.
본 발명에 따른 장치(10)에서, 카메라 장치들(CAM1, CAM2)은 이미징을 수행할 때, 주로 동시에 동작한다. 제 1 실시예에 따르면, 이는 본질적으로 동일한 순간에 유발되는(triggerd) 이미징 순간을 의미한다. 제 2 실시예에 따르면, 이미징 순간의 아주 작은 시간 차가 예컨대, 이미징되는 대상에 의해 허용된다고 가정하면, 상기 이미징 순간의 아주 작은 시간 차는 허용될 수 있다. 상기 경우에는, 예컨대, 양 이미지 센서들(12.1, 12.2)을 사용하여 이미징이 정확히 동시에 수행되는 상황과 비교하여, 상기 이미징 체인(11)에 그렇게 강력한 데이터 처리 능력이 필요하지 않다.
세트 초점 거리를 지니는 렌즈 장치들(F1, F2)은 상기 카메라 수단(12), 즉 더 상세하게는 상기 카메라 요소들(CAM1, CAM2)과 연결되어 구성된다. 상기 렌즈 장치들(F1, F2)은 상기 센서들과 예컨대, 그 자체로 공지되어 있는 방식으로 관련되어 있을 수 있다. 상기 렌즈 세트들(F1, F2)의 초점 거리들 즉, 더 상세하게는 그들의 주밍 팩터(zooming factor)들은 설정 방식에 있어서 그들이 서로 다르게 구성된다. 상기 렌즈 장치들 중 적어도 한 렌즈 장치(F1)의 초점-거리 팩터는 고정될 수 있다. 이는 이미징 데이터가 이미징 대상(17)으로 부터 서로 다른 확장 잘라내기들, 즉 줌 세팅들을 사용하여 형성되도록 허용한다.
제 1 실시예에 따르면, 제 1 카메라 요소(12.1)과 관련되는 제 1 렌즈 장치(F1)의 초점-거리 팩터는 예컨대, 범위 (0,1) 0,5 - 5, 바람직하게는 1 - 3, 이를테면 1일 수 있다. 대응적으로, 상기 제 2 카메라 요소(12.2)와 관련되는 제 2 렌트 장치(F2)의 초점-거리 팩터는 설정 방식에 있어서 상기 제 1 렌즈 장치(F1)와 다르다. 즉, 그 주밍 팩터와 다르다. 일 실시예에 따르면, 상기 제 2 렌즈 장치의 초점-거리 팩터는 예컨대, 범위 1 - 10, 바람직하게는, 3 - 6, 이를테면 3일 수 있다.
상기 내용을 기반으로 하여, 상기 제 2 카메라 요소(12.2)에 의해 이미징 대상(17)으로부터 형성되는 이미지 정보(IMAGE2)의 확대는, 상기 제 1 카메라 요소(12.1)에 의해 형성되는 이미지 정보(IMAGE1)의 확대의 대략 세 배이다(도 3에 개략적으로 도시).
하지만, 양 센서들(12.1, 12.2)의 해상도(resolution)들 및 따라서 상기 센서들에 의해 형성되는 이미지 정보(IMAGE1, IMAGE2)의 해상도들도 또한 양자 모두 동등하게 커질 수 있고 커져야 한다. 이는 상기 제 2 카메라 요소(12.2)에 의해 형성되는 이미지 정보(IMAGE2)에는 상기 센서(12.2)에 노출된 이미징 대상(17)의 단지 1/3이 존재하며, 그럼에도 그들의 해상도는 본질적으로 대략 동일하다는 것을 의미한다.
본 발명에 따른 장치(10)에서, 필요한 만큼의 줌에 의한 이미지 정보는 상기 제 1 및 제 2 카메라 요소들(CAM1, CAM2)에 의해 이미지 대상(17)에서 생성된 이미지 데이터(DATA1, DATA2)로부터 처리된다. 상기 처리는 상기 장치(10)의 데이터-처리 수단(11)을 사용하여 수행될 수 있고, 또는 더욱더 상세하게는 상기 장치(10)에서 실행되는 프로그램(30)에 의해 수행될 수 있다.
상기 데이터-처리 수단(11)을 사용하여, 서로 다른 초점 거리들을 지닌 두 카메라 요소들(12.1, 12.2)에 의해 형성되는 이미지 데이터 세트들(DATA1, DATA2)이 필요한 잘라내기 및 확장의 이미지 정보(IMAGE)로 결합될 수 있다. 상기 경우에, 본 발명에 따른 프로그램 코드는 제 1 코드 수단(30.1)을 포함하며, 상기 제 1 코드 수단은 상기 두 이미지 데이터 세트들(DATA1, DATA2)을 설정 방식으로 서로 결합시키도록 구성된다. 이러한 경우에, 상기 이미지 데이터 세트들(DATA1, DATA2)의 결합은 매우 넓게 이해될 수 있다.
제 1 실시예에 따르면, 상기 데이터-처리 수단(11)은 양 카메라 요소들(12.1, 12.2)에 의해 형성되는 이미지 데이터(DATA1, DATA2)를, 필요한 주밍 팩터에 대한 서로의 상부의 커버리지(coverage)에 적응시킨다. 상기 경우에, 프로그램 생성물(30)의 프로그램 코드는 코드 수단(30.1")을 포함하며, 상기 코드 수단은 이미지 데이터(DATA1, DATA2)에 포함된 픽셀 정보(pixel information)를, 필요한 잘라내기에 의한 이미지 정보(IMAGE)로 결합시키도록 구성된다.
그래서 상기 이미지 데이터(DATA1, DATA2)에 포함된 상기 픽셀 정보가 필요한 잘라내기 및 확장에 의한 이미지 정보(IMAGE)로 서로 결합된다. 서로 다른 초점-거리 팩터들에 기인하여, 상기 이미지 정보의 부분은 오직 하나의 카메라 요소(CAM1)에 의해 형성되는 이미지 데이터로 구성될 수 있고 그리고 부분은 양 카메라 요소들(CAM1, CAM2)에 의해 형성되는 이미지 데이터로 구성될 수 있다. 양 카메라 요소들(CAM1, CAM2)에 의해 형성되는 상기 이미지 데이터(DATA1, DATA2)는 상기 장치(10)에서 프로그램 수단에 의해 서로 결합된다.
제 2 실시예에 따르면, 상기 데이터-처리 수단(11)은 양 카메라 요소들(CAM1, CAM2)에 의해 형성되는 이미지 데이터 세트들(DATA1, DATA2)을 컷-라이크(cut-like) 방식에 따라 서로 적응시킬 수 있다. 그래서 상기 이미지 데이터(DATA1, DATA2)에 의해 정의되는 이미지 영역(image region)들은, 필요한 트리밍(trimming) 및 확장의 이미지 정보(IMAGE)를 형성하기 위해 상기 프로그램 생성 물의 코드 수단(30.1')으로 서로 부착될 수 있다.
그렇다면, 현재 주밍 상황에 따라, 상기 이미지 정보(IMAGE)의 부분이 오직 제 1 카메라 요소(CAM1)에 형성되는 이미지 데이터(DATA1)로 구성될 수 있다. 이는 상기 제 2 카메라 요소(DATA2)에 대해 설정된 초점-거리 팩터에 기인하여, 상기 제 2 카메라 요소(CAM2)의 노출 범위(exposure area)가 상기 제 1 카메라 요소(CAM1)에 의해 검출되는 이미지 범위를 커버하지 않기 때문에, 상기 이미지 정보의 상기 부분이 상기 제 2 카메라 요소(CAM2)의 이미지 데이터(DATA2)로부터 전혀 이용될 수 없기 때문이다. 상기 이미지 정보(IMAGE)를 형성하는데 필요한 이미지 데이터의 최종 부분은 상기 제 2 카메라 요소(CAM2)에 형성되는 이미지 데이터(DATA2)로부터 얻어진다. 따라서, 양 카메라 요소들(CAM1, CAM2)에 의해 형성되는 이미지 데이터(DATA1, DATA2)는 동일한 이미지 위치로 그들을 "스프링클링(sprinkling)"함으로써 서로 결합될 필요가 없으며, 대신 이는 특정한 방식, 예컨대 조각 그림 맞추기(jigsaw puzzle)를 조립하는 것과 유사한 절차의 문제이다.
또한, 일 실시예에 따르면, 상기 이미지 데이터 세트들(DATA1, DATA2)을 서로 부드럽게 결합하기 위해, 상기 데이터-처리 수단(11)은 설정된 처리 동작들도 수행할 수 있다. 상기 경우에, 상기 프로그램 생성물(30)은 또한, 프로그램 코드로서 코드 수단(30.3)을 포함하며, 상기 코드 수단(30.3)은 상기 이미지 데이터 세트들 중 적어도 어느 한 세트(DATA2)를 처리하여 상기 이미지 데이터 세트를 강조(enhance)하도록 구성된다. 상기 동작들은 적어도 제2의 이미지 데이터 세트(DATA2)에 대해 수행될 수 있다. 또한, 상기 동작들은 상기 이미지 데이터 세 트(DATA2) 내의 데이터의 적어도 일부에 대해 지시될 수 있으며, 이는 형성되는 이미지 정보(IMAGE)의 부분을 정의한다.
수행될 수 있는 동작들에 관한 몇몇 예들은 여러 페이딩 동작(fading operation)들을 포함한다. 게다가, 이미지 데이터(DATA1, DATA2)의 밝기(brightness) 및/또는 색상들을 서로 적응시키고 그리고 서로 조정하는 동작들이, 물론 다른 처리 동작들을 배제하지 않고도 또한 가능하다. 색상/밝기 조정들은 예컨대, 카메라 요소들(12.1, 12.2)의 품질 또는 렌즈 세트들(F1, F2)의 품질 서로 다르고, 따라서 이미지 데이터 세트들(DATA1, DATA2) 매끄러운 결합을 방해하는 상황에서 필요할 수 있다.
게다가, 여러 왜곡 보정(distortion correction)들이 또한 가능하다. 왜곡들의 예들은 기하(geometry) 및 원근(perspective) 왜곡들을 포함한다. 왜곡 보정들의 일례는 에컨대, 파노라마 렌즈(panorama lens)들에서 소위 어안 효과(fisheye effect) 발생을 제거하는 것이다. 왜곡 제거는 적어도 하나의 이미지(IMAGE2)에 대해 수행될 수 있으며, 또한 그 이미지 범위의 적어도 일부에 대해 수행될 수 있다.
이하에서, 애플리케이션의 개별적인 일례로서 도 2의 흐름도를 참조하여, 본 발명에 따른 방법을 설명한다. 또한, 도 3을 참조하며, 도 3에는 본 발명의 방법에 따라, 장치(10)에서 이미지 데이터 세트들(DATA1, DATA2)로부터 이미지 정보(IMAGE)가 형성되는 것이 도시되어 있다. 유의해야 할 점은, 도 3에 도시된 이미지들(IMAGE1, IMAGE2, IMAGE)의 실제 주밍 비율들(1:3:2)은 스케일(scale)에 필수적인 것이 아니라 단지, 개략적인 레벨로 본 발명을 예시하도록 의도된 것이라는 점이다.
이미징을 수행하기 위하여, 상기 장치의 카메라 수단(12)은 이미징 대상(17)을 향해 있다. 상기 예에서, 상기 이미징 대상은 도 3에 도시된 이동국(17)이다.
일단, 상기 이미징 대상(17)이 양 카메라 요소들(12.1, 12.2)의 노출 필드(exposure field)에 있다면, 단일 카메라 센서(12.1)에 의해 상기 이미징 대상(17)으로부터 생성되는 이미지 데이터(DATA1)는, 상기 장치(10)의 뷰파인더 디스플레이/아이파인더(viewfinder display / eyefinder; 19)에 나타나는 이미지 정보(IMAGE1)로 처리될 수 있다. 상기 장치(10)의 사용자는 예컨대, 상기 이미지 정보(IMAGE1)에 관해 그들이 원하는 주밍 동작들을 지시하여, 그들이 선택한 이미지 대상(17)으로부터 그들이 원하는 잘라내기 및 확장(즉, 주밍)을 정의하도록 할 수 있다. 상기 동작들은 예컨대, 상기 장치(10)의 사용자 인터페이스를 통해, 수단/기능(15)을 사용하여 선택될 수 있다.
일단 사용자가 그들이 바라는 주밍 동작들을 수행했다면, 상기 이미징 대상(17)의 이미지들로부터 이미지 데이터(DATA1, DATA2)를 형성하기 위해, 상기 장치의 카메라 수단(12)을 사용하여 이미지들(IMAGE1, IMAGE2)이 캡처된다(단계 201.1, 201.2).
양 카메라 요소들(CAM1, CAM2)을 사용하여 이미지를 동시에 캡처함으로써 이미징이 수행되며, 상기 카메라 요소들에는 설정 방식에서 서로 다른 초점 거리들을 지니는 렌즈 장치들(F1, F2)이 설치되어 있다. 일 실시예에 따르면, 제 1 렌즈 장치(F1)의 초점-거리 팩터가 예컨대, 1이기 때문에, 상기 이미지 대상(17)이 제 2 이미징 센서(12.2)로 이미징되는 것에 비하여, 제 1 이미지 센서(12.1)로 더 넓은 범위에 대해 상기 이미징 대상(17)이 이미징된다.
제 2 렌즈 장치(F2)의 초점-거리 팩터가 예컨대, 3이라면, 상기 이미지 센서(12.2)에 의해, 상기 이미징 대상(17)의 더 작은 범위로서 동일 이미지 사이즈로 확장되는 더 작은 범위가 캡처된다. 하지만, 상기 더 작은 범위의 해상력(definition)은, 이를 예컨대, 상기 센서(12.1)를 사용하여 캡처된 이미지 데이터(DATA1)로부터 형성되는 이미지 정보(IMAGE1)와 비교한다면, 상기 센서(12.2)로 캡처된 이미지 범위에서 더 크다.
일 실시예에 따르면, 다음 단계(202.2)에 따라 여러 가지 선택된 이미지-처리 동작들이 적어도 제 2 이미지 데이터 세트(DATA2)에 대해 수행될 수 있다. 상기 경우에, 예컨대 어안 효과(fisheye effect)가 제거될 수 있다. 상기 동작들의 목적에 관한 일례는, 이미지 데이터 세트들(DATA1, DATA2)을 서로 적응시키는 것이다.
상기 이미지-처리 동작들의 몇몇 다른 예들은 적어도 하나의 이미지 데이터 세트(DATA2)에 대해 수행되는 페이딩 동작들 및 밝기 및/또는 색상 조정 동작들이다. 게다가, 이미지-처리는 또한 이미지 데이터의 전체 이미지 범위들 대신, 이미지 범위들의 단지 일부에 대해서만 수행될 수 있다.
설명된 실시예에 있어서, 최종 이미지 정보(IMAGE)는 상기 이미징 대상(17)으로부터 형성되며, 상기 최종 이미지 정보의 주밍 팩터는 렌즈 세트들(F1, F2)의 고정된 대표적 주밍 팩터들(x1, x3) 사이에 존재한다. 사용례는 주밍 팩터 x2에 의한 이미지 정보(IMAGE)를 형성하는 것이다. 상기 경우에, 상기 센서(12.1)를 사용 하여 캡처된 이미지 정보는 상기 장치(10)의 데이터-처리 수단(11)에 의한 영역-선택(region-select)을 사용하여 수행될 수 있다. 여기서, 주밍 팩터(2)에 대응하는 이미지 영역은 상기 이미지 대상(17)으로부터 잘라내기 된다(단계 202.1). 필요한 양의 줌에 의하는 이미지 영역의 잘라내기는 원칙적으로 이미지(IMAGE1)의 디지털 주밍에 해당한다. 따라서, 예컨대 원 이미지(IMAGE1)의 사이즈가 1280 × 960이라면, 그때 잘라내기를 상기 x2 실시예에 적용한 다음에는, 그 사이즈가 640 × 480이 된다.
단계(203.1)에서, 상기 이미지(IMAGE1)에 대해 이미지 사이즈에 대한 사이즈 재조정(resizing)이 수행된다. 그러면 상기 이미지 사이즈는 그 원래 사이즈, 즉 현재는 1280 × 960으로 돌아간다. 현재 상기 이미지는 디지털 주밍을 사용하여 확장되었기 때문에, 상기 이미지의 해상력은 대응하는 원 이미지(IMAGE1)의 해상력보다 조금 떨어지지만, 그럼에도 여전히 허용할 만한 레벨이다. 상기 동작들 이후에, 상기 이미지(IMAGE1)에 의해 커버되는 이미지 범위는 이미지(IMAGE)에 도시된 범위일 것으로 상상할 수 있으며, 상기 이미지(IMAGE)는 파선(broken line)과 실선(solid line) 양자에 의해 도시되는 이동국(17)의 부분으로 구성된다.
제 2 카메라 요소(12.2)에 의해 캡처된 제 2 이미지 데이터(DATA2)에 대한 가능한 이미지-처리 동작들(단계 202.2)로서 특정 방식의 '이미지 보정(correcting image)'으로 이해될 수 있는 이미지-처리 동작들 이후에, 필요한 주밍에 의한 이미지 정보(IMAGE) 형성과 관련하여, 그 잘라내기 및 확대 설정에 대응적으로 동작들이 수행된다. 상기 이미지-처리 동작들의 일례는 제거(removal)이거나, 또는 적어 도 어안 효과(fisheye effect)의 감소(reduction)이다. 여기서, 여러 가지 '핀치-알고리즘들(pinch-algorithms)"이 적용될 수 있다. 어안-효과 제거의 기본 원리는 직각 프레젠테이션 퍼스펙티브(rectangular presentation perspective)의 형성이다.
센서 및/또는 렌즈 세트의 '낮은 품질(poor quality)', 또는 일종의 파노라마 타입인 센서/렌즈 장치의 사용과 같은 요인들에 의해 이미지 정보에 어안-효과가 발생할 수 있다. 왜곡 제거는 원래 사이즈의 이미지(IMAGE2)에 대해 수행되어, 상기 이미지 정보가 가능한 한 보존되도록 한다.
상기 실시예에 따른 경우에, 상기 제 2 이미지(IMAGE2)의 해상도(resolution)가 또한 감소될 수 있다(즉, 상기 제 2 이미지로부터 이미지 정보를 버릴 수 있다). 이를 수행하기 위한 한 동기는, 이러한 방식으로 상기 이미지(IMAGE2)가 상기 제 1 이미지(IMAGE1) 위에 더 잘 위치된다는 점이다. 타겟 이미지(IMAGE)가 이미지의 주밍 팩터(x2)를 가지기 때문에, 그 다음 이에 따라 해상도의 감소가 자연스럽게 또한 상기 타겟 이미지(IMAGE)의 이미지 사이즈를 고려하여 수행된다.
다음 단계(204.2)에서, 세트 영역 선택 파라미터들('영역 선택 패더(region select feather' 및 '반 에일리어싱(antialiasing)')을 사용하여 이미지 영역의 선택이 수행된다. 상기 패더 및 반 에일리어싱 특성들의 사용은 상기 이미지의 '픽셀형 블로킹(pixel-like blocking)' 없이 선명한(sharp) 그러나 어느 정도 페이드된(faded) 에지 범위들을 달성한다. 게다가, 반 에일리어싱 특성의 사용은 또한 어 느 정도의 '중간 픽셀 계조(intermediate pixel gradation)'의 사용을 허용하며, 이로서는 선택된 영역의 에지 부분들을 부드럽게(soften) 한다. 이와 관련하여, 이미지 범위들의 선택과 관련되는 여러 방법에 관한 애플리케이션들은 당업자에게 명백하다. 예컨대, 상기 실시예의 경우에, 상기 이미지(IMAGE2)의 높이가 5% 감소될 수 있으며, 이 경우에 상기 높이는 960-픽셀에서 915-픽셀로 변경된다. 그때 이는 45-픽셀 패더이다.
다음으로, 단계(205)에서는, 이미징 대상(17)의 주밍 단계에서 정의된 최종 이미지 정보(IMAGE)가 제 1 및 제 2 카메라 요소들(CAM1, CAM2)을 사용하여 형성된 이미지 데이터 세트들(DATA1, DATA2)로부터 처리된다.
상기 처리에서, 상기 이미지 데이터 세트들(DATA1, DATA2)은 설정 방식으로 서로 결합된다.
상기 결합은 몇몇 상이한 방식들로 수행될 수 있다. 첫째로, 상기 이미지 데이터 세트들(DATA1, DATA2)로부터 정의된 이미지 영역들(IMAGE1, IMAGE2)은 필요한 주밍에 의한 이미지 정보(IMAGE)를 얻기 위하여, 계산에 의해 서로 연결될 수 있다.
제 2 실시예에 따르면, 상기 이미지 데이터 세트들(DATA1, DATA2)에 포함된 픽셀 정보는 필요한 주밍에 의한 이미지 정보(IMAGE)를 형성하기 위하여 계산에 결합될 수 있다.
도 3에 도시된 결과적인 이미지(IMAGE)에서, 상기 제 1 실시예에 따른 상기 이미지 데이터 세트들의 연결, 또는 바람직하게는 상기 이미지 영역들의 연결은 상 기 이미지(IMAGE)의 에지 범위들 내의 이동국(17)의 부분들로서, 현재 실선들을 사용하여 도시된 부분들이 상기 제 1 카메라 요소(12.1)에 의해 생성되는 이미지 데이터 세트(DATA1)로부터 나오는 그러한 방식으로 이해될 수 있다. 상기 이미지(IMAGE)의 센터의 이미지 영역들로서, 파선들에 의해 도시된 이미지 영역들은 그때 상기 카메라 요소(12.2)에 의해 생성되는 이미지 데이터 세트(DATA2)로부터 나온다.
상기 출력 이미지(IMAGE)의 에지들의 이미지 정보의 해상력은, 예컨대 상기 이미지(IMAGE)의 센터 부분들의 이미지 정보에 비하여 현재 다소 더 나쁘다. 이는 상기 에지 부분들의 이미지 정보를 형성할 때, 제 1 이미지(IMAGE1)가 디지털식으로 약간 줌되어야 했기 때문이다. 다른 한편으로, 센터 부분의 이미지 영역은 다소 감소되었으며, 상기 이미지 영역에서 실제로 손실된 이미지 정보(IMAGE2)는 없다.
픽셀-데이터(DATA1, DATA2) 결합 실시예를 검토할 때, 현재 상기 이미지(IMAGE)의 센터의 이동국(17) 부분들, 즉 파선들로 도시된 부분들이 양 카메라 요소들(12.1, 12.2)에 의해 형성되는 이미지 데이터(DATA1, DATA2)를 포함할 수 있다는 점을 제외하고, 다른 점에서 상황은 상기와 동일하다. 이는 오직 상기 센터 부분의 해상력을 더 개선한다. 왜냐하면, 양 센서들(12.1, 12.2)의 데이터 세트들(DATA1, DATA2)이 현재 그 정보에 이용될 수 있기 때문이다. 상기 결합 실시예는 또한 이미지들(IMAGE1, IMAGE2)에 관한 어떤 종류의 레이어링(layering)으로 이해될 수 있다.
양 렌즈 장치들(F1, F2)의 고정 주밍 팩터들을 초과하는 더 큰 주밍을 수행 할 필요가 있다면, 유사한 기본 원리들에 따라 진행할 수 있다. 그때 상기 주밍은 센서(12.2)에 의해 더 큰 줌으로 형성되는 이미지 데이터(DATA2)를 기반으로 하며, 이는 설정 확대(set enlargement)로 디지털식으로 줌 업된다. 그리고나면 제 1 센서(12.1)로부터의 픽셀 데이터(DATA1)는, 필요한 주밍에 대응하여, 상기 확대에 적절하게(즉, 현재 레이어링에 의해) 적응될 수 있다. 그러면, 이는 해상력을 불합리하게 감소시키지 않고, 상기 렌즈 세트들(F1, F2)에 의해 제공되는 고정 팩터(fixed factor)들보다 더 큰 팩터들의 주밍을 허용한다. 현안에서 상기 실시예에 따른 렌즈 세트들(F1, F2)을 사용할 때, 5 - 10(- 15) 정도의 팩터에 의한 주밍이 심지어 가능할 수 있다.
센서들(12.1, 12.2)은 예컨대, 선택된 방향으로 수평적으로 평행하게 정렬되기 때문에, 그들에 의해 커버되는 노출 범위들의 수평 방향으로 약간의 차가 있을 수 있다. 프로그램을 기반으로 하는 이미지 인식(image recognition)은 예컨대, 이미지 정보(IMAGE1, IMAGE2)를 결합할 때, 재정렬(re-alignment)에 대한 후속 요구(subsequent need)에 적용될 수 있다. 예컨대, 핸드 스캐너(hand scanner)들로부터 공지된 아날로지(analogy)들이 고려될 수 있다.
본 발명은 또한 카메라 요소(CAM1)에 관한 것이다. 상기 카메라 요소(CAM1)는 적어도 하나의 이미지 센서(12.1)를 포함하며, 상기 이미지 센서에 의해 이미지 데이터(DATA1)가 이미징 대상(17)으로부터 형성될 수 있다. 상기 카메라 요소(12.1)는 이미지 정보(IMAGE)를 형성하기 위해 본 발명에 따른 전자 장치(10)에 설치될 수 있고, 또는 본 발명에 따른 방법에 적용될 수 있다.
본 발명은 이미징 장치들, 예컨대 카메라 전화들 또는 포터블 멀티미디어 장치들 같은 이미징 장치들에 적용될 수 있으며, 지금까지 상기 이미징 장치들에서 광학 주밍(optical zooming)의 구성은 어렵거나 또는 제한되는 것이었다. 또한, 본 발명은 파노라마 이미징에 적용될 수 있다. 애플리케이션은 계속적 이미징의 경우에 또한 가능하다.
상기 설명 및 관련 도면들은 오로지 본 발명을 예시하도록 의도된 것임을 이해하여야 한다. 따라서, 본 발명은 오로지 청구의 범위에 개시된 또는 언급된 실시예들에 국한되는 것은 결코 아니며, 당업자라면 첨부된 청구의 범위에 정의된 본 발명의 사상 범위 내에서 본 발명의 여러 가지 많은 가능한 변경예들 및 적응예들이 명확할 것이다.

Claims (21)

  1. 전자 장치(10)에 있어서,
    이미징 대상(17)으로부터 제1 이미지 데이터(DATA1)를 형성하고 제 1 렌즈 장치(F1)를 구비하는, 제1 카메라 요소(CAM1);
    상기 이미지 대상(17)으로부터 제2 이미지 데이터(DATA2)를 형성하고 제 2 렌즈 장치(F2)를 구비하는 제2 카메라 요소(CAM2)로서, 상기 제2 렌즈 장치(F2)의 초점 거리는 상기 제1 렌즈 장치(F1)의 초점 거리와 다른, 제2 카메라 요소(CAM2); 및
    상기 제1 및 제2 이미지 데이터(DATA1, DATA2)로부터의 필요한 주밍(zooming)으로 상기 이미징 대상(17)의 이미지 정보(IMAGE)를 형성하는 데이터-처리 수단(11)을 포함하고,
    상기 제1 및 제2 카메라 요소들(CAM2, CAM2)은, 상기 제1 카메라 요소(CAM1)를 사용함에 의한 제1 이미지(IMAGE1) 및 상기 제2 카메라 요소(CAM2)를 사용함에 의한 제2 이미지(IMAGE2)를 동시에 캡쳐함에 의해, 상기 제1 이미지 데이터(DATA1) 및 제2 이미지 데이터(DATA2)를 형성하도록 구성되는 것을 특징으로 하는, 전자 장치(10).
  2. 제1항에 있어서,
    상기 데이터-처리 수단(11)은, 상기 이미지 정보(IMAGE)를 형성하기 위해, 상기 제1 이미지 데이터(DATA1)에 의해 정의되는 제1 이미지 범위를 상기 제2 이미지 데이터(DATA2)에 의해 정의되는 제2 이미지 범위들과 결합시키는 것을 특징으로 하는 전자 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 데이터-처리 수단(11)은, 상기 이미지 정보(IMAGE)를 형성하기 위해, 상기 제1 이미지 데이터(DATA1)에 포함되는 픽셀 정보를 상기 제2 이미지 데이터(DATA2)에 포함된 픽셀 정보와 결합시키도록 구성되는 것을 특징으로 하는 전자 장치.
  4. 제1항 또는 제2항에 있어서,
    상기 제 1 렌즈 장치(F1)의 초점-거리 팩터(focal-length factor)가 0.1 내지 5의 범위에 있고,
    상기 제 2 렌즈 장치(F2)의 초점-거리 팩터가 1 내지 10의 범위에 있는 것을 특징으로 하는 전자 장치.
  5. 제1항 또는 제2항에 있어서,
    적어도 상기 제 2 렌즈 장치(F2)의 초점-거리 팩터가 고정되는 것을 특징으로 하는 전자 장치.
  6. 제1항 또는 제2항에 있어서,
    상기 데이터-처리 수단(11)은, 적어도 상기 제 2 이미지 데이터(DATA2)에 대해 처리 동작(set processing operation)들, 예컨대 사이즈 조정, 페이딩 동작(fading operation)들, 밝기 또는 색상의 조정을 수행하도록 구성되는 것을 특징으로 하는 전자 장치.
  7. 제1항 또는 제2항에 있어서,
    상기 데이터-처리 수단(11)은, 적어도 상기 제 2 이미지 데이터(DATA2)에 대해 왜곡 보정(distortion correction)을 수행하도록 구성되는 것을 특징으로 하는 전자 장치.
  8. 이미지 데이터(DATA1, DATA2)로부터 이미지 정보(IMAGE)를 형성하는 방법에 있어서,
    제1 초점 거리를 갖는 제1 렌즈 장치(F1)를 구비하는 제1 카메라 요소(CAM1)를 사용함에 의해 이미징 대상(17)의 제1 이미지 데이터(DATA1)를 형성하는 단계(단계 201.1);
    제2 초점 거리를 갖는 제2 렌즈 장치(F2)를 구비하는 제2 카메라 요소(CAM2)를 사용함에 의해 상기 이미징 대상(17)의 제2 이미지 데이터(DATA2)를 형성하는 단계(단계 201.2); 및
    상기 제1 및 제2 이미지 데이터(DATA1, DATA2)로부터의 필요한 주밍(zooming)으로 상기 이미징 대상(17)의 이미지 정보(IMAGE)를 처리하는 단계를 포함하고,
    상기 제1 이미지 데이터(DATA1) 및 제2 이미지 데이터(DATA2)는, 상기 제1 카메라 요소(CAM1)를 사용함에 의한 제1 이미지(IMAGE1) 및 상기 제2 카메라 요소(CAM2)를 사용함에 의한 제2 이미지(IMAGE2)를 동시에 캡쳐함에 의해 형성되는 것을 특징으로 하는 이미지 정보 형성 방법.
  9. 제8항에 있어서,
    상기 제1 이미지 데이터(DATA1)는 상기 제2 이미지 데이터(DATA2)와 결합되는 것(단계 205)을 특징으로 하는 이미지 정보 형성 방법.
  10. 제8항 또는 제9항에 있어서,
    상기 제1 이미지 데이터(DATA1)에 의해 정의되는 제1 이미지 범위(image area)는 상기 제2 이미지 데이터(DATA2)에 의해 정의되는 제2 이미지 범위(image area)와 결합하여 상기 이미지 정보(IMAGE)를 형성하는 것을 특징으로 하는 이미지 정보 형성 방법.
  11. 제8항 또는 제9항에 있어서,
    상기 제1 이미지 데이터(DATA1)에 포함되는 픽셀 정보는 상기 제2 이미지 데이터(DATA2)에 포함되는 픽셀 정보와 결합하여 상기 이미지 정보(IMAGE)를 형성하는 것을 특징으로 하는 이미지 정보 형성 방법.
  12. 제8항 또는 제9항에 있어서,
    상기 제1 렌즈 장치(F1)의 초점-거리 팩터가 0.1 내지 5의 범위에 있고 상기 제2 렌즈 장치(F2)의 초점-거리 팩터가 1 내지 10의 범위에 있는 것을 특징으로 하는 이미지 정보 형성 방법.
  13. 제8항 또는 제9항에 있어서,
    페이딩 동작(fading operation)들이, 적어도 상기 제 2 이미지 데이터(DATA2)에 대해 수행되는 것(단계 205)을 특징으로 하는 이미지 정보 형성 방법.
  14. 제8항 또는 제9항에 있어서,
    밝기 또는 색상 조정이, 적어도 상기 제 2 이미지 데이터(DATA2)에 대해 수행되는 것(단계 205)을 특징으로 하는 이미지 정보 형성 방법.
  15. 제8항 또는 제9항에 있어서,
    왜곡 보정(distortion correction)이, 적어도 상기 제 2 이미지 데이터(DATA2)에 대해 수행되는 것(단계 202.2)을 특징으로 하는 이미지 정보 형성 방법.
  16. 이미지 데이터(DATA1, DATA2)를 처리하는 프로그램 생성물(30)에 있어서,
    상기 프로그램 생성물(30)은, 저장 매체(MEM, 11) 및 적어도 하나의 카메라 요소(CAM1)를 사용함으로써 생성되는 이미지 데이터(DATA1, DATA2)로부터의 필요한 주밍(zooming)으로 이미지 정보(IMAGE)를 형성하기 위해 상기 저장 매체(MEM, 11)에 기록되는 프로그램 코드를 포함하고,
    상기 프로그램 코드는 제1 이미지 데이터(DATA1)를 제2 이미지 데이터(DATA2)와 결합시키도록 구성되는 제1 코드 수단 (30.1)을 포함하고,
    상기 제1 이미지 데이터(DATA1)와 상기 제2 이미지 데이터(DATA2)는 제1 카메라 요소(CAM1)를 사용함에 의한 이미징 대상(17)의 제1 이미지(IMAGE1)와 제2 카메라 요소(CAM2)를 사용함에 의한 상기 이미징 대상(17)의 제2 이미지(IMAGE2)를 동시에 캡쳐함으로써 생성되고,
    상기 제1 및 제2 카메라 요소(CAM1, CAM2)는 서로 다른 초점 거리를 갖는 것을 특징으로 하는 프로그램 생성물.
  17. 제16항에 있어서,
    상기 프로그램 코드가, 상기 제1 이미지 데이터(DATA1)에 의해 정의되는 제1 이미지 범위를 상기 제2 이미지 데이터(DATA2)에 의해 정의되는 제2 이미지 범위와 결합시켜 상기 이미지 정보(IMAGE)를 형성하도록 구성되는 코드 수단(30.1', 30.2)을 포함하는 것을 특징으로 하는 프로그램 생성물.
  18. 제16항에 있어서,
    상기 프로그램 코드가, 상기 제1 이미지 데이터(DATA1)에 포함된 픽셀 정보를 상기 제2 이미지 데이터(DATA2)에 포함된 픽셀 정보와 결합시켜 상기 이미지 정보(IMAGE)를 형성하도록 구성된 코드 수단(30.1", 30.2)을 포함하는 것을 특징으로 하는 프로그램 생성물.
  19. 제16항 내지 제18항 중 어느 한 항에 있어서,
    상기 프로그램 생성물(30)이, 적어도 상기 제 2 이미지 데이터(DATA2)를 처리하여 상기 제2 이미지 데이터의 이미지 범위의 적어도 일부에서 상기 제2 이미지 데이터를 강조하도록 구성되는 제 2 코드 수단(30.3)을 추가로 포함하고, 상기 처리가 예컨대, 밝기 또는 색상의 조정(adjustment) 또는 페이딩(fading)을 포함하는 것을 특징으로 하는 프로그램 생성물.
  20. 제16항 내지 제18항에 중 어느 한 항에 있어서,
    상기 프로그램 생성물(30)이, 적어도 상기 제 2 이미지 데이터(DATA2)를 처리하여 왜곡들을 보정하도록 구성되는 제 3 코드 수단(30.3)을 추가로 포함하는 것을 특징으로 하는 프로그램 생성물.
  21. 적어도 하나의 이미지 센서(12.1)를 포함하는 카메라 요소(CAM1)에 있어서,
    상기 이미지 센서에 의해 이미지 데이터(DATA1)가 이미징 대상(17)으로부터 형성되도록 구성되고, 상기 카메라 요소(CAM1)가 제1항 또는 제2항에 따른 전자 장치(10), 또는 제8항 또는 제9항에 따른 방법에 사용되도록 구성되는 것을 특징으로 하는 카메라 요소.
KR1020077002658A 2004-08-02 2005-06-28 이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한방법과 대응 프로그램 생성물 KR100891919B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI20045286 2004-08-02
FI20045286A FI117843B (fi) 2004-08-02 2004-08-02 Elektroninen laite ja menetelmä elektronisessa laitteessa kuvainformaation muodostamiseksi ja vastaava ohjelmatuote

Publications (2)

Publication Number Publication Date
KR20070041552A KR20070041552A (ko) 2007-04-18
KR100891919B1 true KR100891919B1 (ko) 2009-04-08

Family

ID=32922150

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020077002658A KR100891919B1 (ko) 2004-08-02 2005-06-28 이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한방법과 대응 프로그램 생성물

Country Status (7)

Country Link
US (1) US20080043116A1 (ko)
EP (1) EP1774770A1 (ko)
JP (1) JP2008508828A (ko)
KR (1) KR100891919B1 (ko)
CN (1) CN100512381C (ko)
FI (1) FI117843B (ko)
WO (1) WO2006013231A1 (ko)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4451480B2 (ja) * 2007-11-01 2010-04-14 オリンパスイメージング株式会社 電子カメラおよび記憶媒体
KR20110020519A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 이를 실행하기 위한 프로그램을 저장한 기록매체
US20160360121A1 (en) * 2009-11-09 2016-12-08 Yi-Chuan Cheng Portable device with successive extension zooming capability
US8917632B2 (en) 2010-04-07 2014-12-23 Apple Inc. Different rate controller configurations for different cameras of a mobile device
US20130002873A1 (en) * 2011-06-30 2013-01-03 Magna Electronics Europe Gmbh & Co. Kg Imaging system for vehicle
JP5950678B2 (ja) * 2012-04-27 2016-07-13 キヤノン株式会社 撮像装置、制御方法、及びプログラム
CN103888655B (zh) * 2012-12-21 2017-07-25 联想(北京)有限公司 一种拍照方法及电子设备
CN103093742A (zh) * 2013-01-31 2013-05-08 冠捷显示科技(厦门)有限公司 一种具有采集并调整物体图像大小的显示设备及其方法
CN106791337B (zh) * 2017-02-22 2023-05-12 北京汉邦高科数字技术股份有限公司 一种双镜头光学倍数拓展的变焦摄像机及其工作方法
US10051201B1 (en) 2017-03-20 2018-08-14 Google Llc Camera system including lens with magnification gradient
KR102204596B1 (ko) * 2017-06-02 2021-01-19 삼성전자주식회사 프로세서, 이를 포함하는 이미지 프로세싱 장치 및 이미지 프로세싱 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300438A (ja) * 2001-03-29 2002-10-11 Fuji Photo Film Co Ltd デジタルカメラ
US20030093805A1 (en) * 2001-11-15 2003-05-15 Gin J.M. Jack Dual camera surveillance and control system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3261152B2 (ja) * 1991-03-13 2002-02-25 シャープ株式会社 複数の光学系を備えた撮像装置
US5200818A (en) * 1991-03-22 1993-04-06 Inbal Neta Video imaging system with interactive windowing capability
JP2003189168A (ja) * 2001-12-21 2003-07-04 Nec Corp 携帯電話用カメラ
US20030137590A1 (en) * 2002-01-18 2003-07-24 Barnes Danny S. Machine vision system with auxiliary video input
JP2003259166A (ja) * 2002-02-28 2003-09-12 Matsushita Electric Ind Co Ltd 携帯電話機
US20040001149A1 (en) * 2002-06-28 2004-01-01 Smith Steven Winn Dual-mode surveillance system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300438A (ja) * 2001-03-29 2002-10-11 Fuji Photo Film Co Ltd デジタルカメラ
US20030093805A1 (en) * 2001-11-15 2003-05-15 Gin J.M. Jack Dual camera surveillance and control system

Also Published As

Publication number Publication date
EP1774770A1 (en) 2007-04-18
CN100512381C (zh) 2009-07-08
KR20070041552A (ko) 2007-04-18
FI20045286A0 (fi) 2004-08-02
FI20045286A (fi) 2006-02-03
CN1993981A (zh) 2007-07-04
FI117843B (fi) 2007-03-15
JP2008508828A (ja) 2008-03-21
US20080043116A1 (en) 2008-02-21
WO2006013231A1 (en) 2006-02-09

Similar Documents

Publication Publication Date Title
KR100891919B1 (ko) 이미지 정보를 형성하는 전자 장치 및 전자 장치에 의한방법과 대응 프로그램 생성물
US20080030592A1 (en) Producing digital image with different resolution portions
JP5548552B2 (ja) 撮像装置
JP2005142680A (ja) 画像処理装置
KR20050041640A (ko) 영상 촬영 장치 및 방법
JP2011199565A (ja) 撮像装置、及びプログラム
CN107205112B (zh) 摄像装置、摄像方法以及记录介质
JP2007135133A (ja) 撮像装置
JP7174120B2 (ja) 撮像装置、プログラム、記録媒体、及び制御方法
JP2007096588A (ja) 画像撮影装置および画像表示方法
JP4608436B2 (ja) 画像撮影装置
JP2003179798A (ja) デジタルカメラ
CN108810326B (zh) 一种拍照方法、装置及移动终端
CN114651275A (zh) 全视场参考图像的图像拼接
JP2007214887A (ja) デジタルスチルカメラ及び画像合成方法
JP2007214620A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011216958A (ja) 撮像装置、及びプログラム
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP2022083147A (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
CN111698389A (zh) 图像处理设备、摄像设备、图像处理方法以及存储介质
JP5510318B2 (ja) 電子カメラ
JP2007235869A (ja) 撮影装置及びプログラム
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6953594B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee