KR20150077287A - Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers - Google Patents

Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers Download PDF

Info

Publication number
KR20150077287A
KR20150077287A KR1020140160282A KR20140160282A KR20150077287A KR 20150077287 A KR20150077287 A KR 20150077287A KR 1020140160282 A KR1020140160282 A KR 1020140160282A KR 20140160282 A KR20140160282 A KR 20140160282A KR 20150077287 A KR20150077287 A KR 20150077287A
Authority
KR
South Korea
Prior art keywords
sensor
curved surface
enclosure
optical element
camera
Prior art date
Application number
KR1020140160282A
Other languages
Korean (ko)
Inventor
게리 에드윈 서튼
Original Assignee
게리 에드윈 서튼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/998,980 external-priority patent/US20150189140A1/en
Application filed by 게리 에드윈 서튼 filed Critical 게리 에드윈 서튼
Publication of KR20150077287A publication Critical patent/KR20150077287A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

Methods and apparatus for connecting a camera (150) that includes a curved sensor (160) with a mobile communication device are disclosed. In the present invention, a picture with picture quality higher than an existing camera of a phone with a planar sensor is provided. The high quality picture can be obtained without a large and expensive lens. A light obtaining capacity becomes greater, so that flash which is necessary to lighten is not needed, and thus, battery life is expanded. As a camera using a curved sensor is combined with a mobile communication device, a portable camera dedicated to photographing is not needed. In the present invention, for the first time, a high performance camera and a mobile communication device are coupled, so that necessity of carrying an additional independent camera is reduced or removed. Also, according to an embodiment of the present invention, a sensor and/or an optical element is moved on purpose during multiple exposures for obtaining improved images. Moreover, a method and an apparatus for manufacturing a curved sensor by using a silicon fiber are provided. According to another embodiment, the curved sensor is manufactured into mini sensors with various sizes. According to another embodiment, the mini sensors are configured for each mini sensor on a mini sensor row to be located relatively little higher than two adjacent mini sensors on the same row.

Description

곡면 센서 카메라를 갖는 이동통신장치, 이동형 광학부를 갖는 곡면 센서 카메라, 및 실리콘 섬유로 제작되는 곡면 센서 {Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a mobile communication device having a curved surface sensor camera, a curved surface sensor camera having a movable optical part, and a curved surface sensor made of a silicon fiber (Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers)

본 발명의 일실시예는 곡면 센서를 포함하는 카메라를 결합한 통신 장치에 관한 것이다. 이 장치에 의해 종래의 휴대전화(셀폰) 카메라로 얻을 수 있는 것보다 더 높은 화질의 사진을 얻을 수 있으며, 별도의 포켓용 카메라를 휴대할 필요가 없게 된다. 본 발명의 다른 실시예는 평면 또는 곡면 센서와, 영상을 생성하기 위해 의도적으로 광학부(optical train)를 이동시키는 요소들을 포함하는 카메라 조합에 관한 것이다. 본 발명의 또 다른 실시예는 실리콘 섬유로 제작되는 오목한 곡면 센서에 관한 것이다.One embodiment of the present invention relates to a communication device incorporating a camera including a curved surface sensor. With this apparatus, it is possible to obtain a picture of higher image quality than that obtainable by a conventional cellular phone (cell phone) camera, and it is not necessary to carry a separate pocket camera. Another embodiment of the invention relates to a combination of cameras comprising planar or curved sensors and elements that intentionally move the optical train to produce an image. Another embodiment of the present invention relates to a concave curved sensor fabricated from silicon fibers.

I. 간략한 카메라의 역사
I. Brief camera history

세 가지 기본 카메라 유형의 진화Evolution of three primary camera types

최초의 "상자형" 및 "주름형"에서 진화한 카메라는 20세기 후반에 현재의 세 가지 기본 형태로 진화해 왔다. 거리계연동(rangefinder) 카메라가 가장 먼저 나왔고, 그 다음에 일안 반사식, 즉, SLR(single lens reflex) 카메라가, 마지막으로 컴팩트형 P&S(point and shoot) 카메라가 나왔다. 오늘날의 대부분의 휴대용 카메라는 이들 거리계연동식, SLR식, P&S식을 채택하고 있다.
The cameras that evolved from the first "boxed" and "corrugated" have evolved into three basic forms in the latter half of the 20th century. A rangefinder camera came first, followed by a single lens reflex (SLR) camera, and finally a compact point and shoot (P & S) camera. Most of today's handheld cameras use these rangefinder interlocking, SLR, P & S.

단순하게 본 종래의 카메라The conventional camera

도 1은 외함, 대물 렌즈, 사진용 필름 또는 평면 센서를 포함하는 종래의 카메라를 단순화해서 보여주고 있다.1 shows a simplified view of a conventional camera comprising an enclosure, an objective lens, a photographic film or a planar sensor.

그러나 평면 필름 또는 센서와 단순한 렌즈는 몇 가지 문제에 직면해 있다. 필름이나 센서의 영상 영역의 가장자리에 도달하는 빛의 경로가 길어지게 되어 그 부분의 광량이 흐려진다. 센서 가장자리로 광선이 긴 경로를 통해 도달하기 때문에 이 부분의 광량이 약해지는 것은 물론, "무지개 효과", 즉, 색수차가 더 심해진다.However, flat films or sensors and simple lenses face several problems. The path of the light reaching the edge of the image area of the film or the sensor becomes long, and the light amount of the part becomes blurred. Since the rays reach the edge of the sensor through a long path, the amount of light at this part is weakened, and the "rainbow effect", that is, the chromatic aberration becomes worse.

도 2는 영상 형성면이 곡면으로 되어 있는 인간의 눈을 단순화해 나타낸다. 인간의 눈은, 예를 들어서, 영상을 형성하기 위하여 각막과 하나의 렌즈만이 필요하다. 그러나 평균적으로 인간의 망막 한 개에는 2,500만 개의 간상세포와 600만 개의 원추세포가 들어 있다. 오늘날의 고급형 카메라는 6 내지 20개의 부품으로 구성되는 렌즈를 사용한다. 아주 희귀하고 초고가의 카메라만이 인간의 눈이 갖는 간상세포와 원추세포와 같은 개수의 픽셀을 가질 뿐이며, 인공조명 없이 일몰 후의 영상을 촬영할 수 있는 카메라는 없다.Fig. 2 shows a simplified human eye in which the image forming surface is a curved surface. The human eye, for example, needs only a cornea and a lens to form an image. On average, however, a human retina contains 25 million stem cells and 6 million cones. Today's high-end cameras use lenses consisting of 6 to 20 parts. Only very rare and super high-priced cameras have the same number of pixels as the human eye's trunk cells and cone cells, and there is no camera that can shoot images after sunset without artificial lighting.

독수리의 망막에는 사람의 눈이 갖는 감각세포 수의 8배가 모여 있다. 독수리의 감각세포는 구슬 정도 크기의 구체 위에 배열되어 있다. 독수리의 눈에서는 둥근 감각세포에 의해 광학계가 단순해진다. 현재 존재하는 상용 카메라 중에서 독수리의 눈 속에 있는 감각세포수의 1/4에도 해당되는 픽셀수를 갖는 카메라는 없다. 독수리 눈은 간단한 렌즈와 곡면형 망막으로 이루어져 있다. 종래의 최고급 카메라는 정교한 코팅, 특수 재료, 복잡한 구성의 다중 렌즈를 사용하는데, 이들은 모두 평면형 센서를 보상하기 위한 것이다. 독수리는 어떠한 카메라보다도 단순하고 가볍고 작은 광학계를 이용하여, 낮에도, 해가 있어도, 해가 져도 사물을 명확하게 볼 수 있다.
The eagle's retina contains eight times the number of sensory cells in the human eye. The sensory cells of the eagle are arranged on the sphere of bead size. In the eyes of an eagle, the optical system is simplified by round sensory cells. None of the existing commercial cameras have a pixel count equal to one-quarter of the number of sensory cells in the eyes of an eagle. The eagle eye consists of a simple lens and a curved retina. Conventional high-end cameras use sophisticated coatings, special materials, and multiple lenses of complex construction, all of which are intended to compensate for planar sensors. Eagles are simpler, lighter, and smaller than any camera, so they can clearly see things even when they are sunny, daytime, or sunny.

거리계연동 카메라(rangefinder camera)Rangefinder camera

거리계연동 카메라는 초기의 전문가용 35mm 라이카(LEICA™) 카메라에서부터, 나중에 나온 일반인용 인스타매틱(INSTAMATIC™) 필름 카메라에까지 폭넓게 분포되어 있다.(KODAK™의 INSTAMATIC™ 카메라의 대부분은 초점 기능이 없어서 사실상은 거리계연동 카메라가 아니었다. 단, "INSTAMATIC 형" 모델 중 소수의 일부는 초점 기능이 있으며 "촬영용" 렌즈(taking lens)와 분리된 별도의 "뷰잉" 렌즈(viewing lens)를 갖고 있어서 거리연동계로 분류된다.) 거리계연동 카메라는 셔터를 기계적으로 또는 디지털적으로 열고 닫을 때 필름(혹은 오늘날에는 센서)에 상을 형성하는 "촬영용" 렌즈를 갖는다. 그리고 사용자가 피사체를 바라볼 수 있도록 하는 제2의 렌즈(뷰잉 렌즈)가 사용된다. 촬영용 렌즈와 연동하여 결상을 하는 이 뷰잉 렌즈를 통해서 카메라의 초점을 맞출수 있게 된다. The rangefinder camera is widely distributed from the early professional 35mm LEICA (TM) camera to the later INSTAMATIC (TM) film camera. (Most of the KODAK (R) INSTAMATIC (TM) In fact, a few of the "INSTAMATIC" models have a focus function and have a separate "viewing" lens and a separate "taking" lens for distance interlocking The camera has a "photographing" lens that forms an image on the film (or sensor today) when the shutter is mechanically or digitally opened and closed. And a second lens (viewing lens) for allowing the user to view the subject is used. The focus of the camera can be adjusted through the viewing lens which is in phase with the photographing lens.

촬영용 렌즈와 뷰잉 렌즈가 다르고 피사체의 원근이 다르기 때문에, 촬영용 렌즈로 촬영한 영상은 항상 뷰잉 렌즈로 바라본 영상과 약간 다르게 된다. 시차(시각차)라고 부르는 이 문제점은 대부분의 상황에서는 경미하지만, 가까운 거리에서는 중요한 문제가 된다.Since the photographing lens and the viewing lens are different and the perspective of the subject is different, the image photographed with the photographing lens is always slightly different from the image viewed with the viewing lens. This problem, called parallax, is mild in most situations, but becomes an important issue at close distances.

피사체 확대를 위한 긴 망원 렌즈는 거리계연동 형식에서는 실용적이지 못하다. 왜냐하면, 렌즈 두 개가 필요하고, 렌즈가 고가이며 카메라 바디 내에 위치하는 것보다 설치 공간이 더 넓어져야 하기 때문이다. 이 때문에 긴 망원 렌즈가 거리계연동 카메라에는 존재하지 않는다.A long telephoto lens for zooming in on the subject is not practical in the form of an interlocking type of distance meter. This is because two lenses are required, the lens is expensive and the installation space must be wider than it is in the camera body. Because of this, a long telephoto lens does not exist in the distance meter interlocking camera.

일부 거리계연동 카메라에서는 뷰파인더 속에 프레임을 표시하는데, 초점을 조절할 때에 이 프레임의 경계가 촬영용 렌즈의 경계와 일치되도록 한다. 이것은 사용자가 바라보는 장면을 실제 촬영되는 영상과 일치시키는 것이다(단, 초점이 맞는 부분에 대해서만 일치하게 된다). 초점이 맞지 않는 배경과 전경은 움직이기 때문에, 촬영된 영상의 해당 부분과 뷰파인더로 본 부분은 여전히 약간 차이를 갖는다. Some cameras incorporate a frame in the viewfinder, so that when adjusting focus, the border of this frame is aligned with the boundary of the photographing lens. This is to match the user's view to the actual shot (but only for the part that is in focus). Since the unfocused background and foreground move, the corresponding part of the photographed image and the viewfinder part still have a slight difference.

몇몇 거리계연동 카메라에서는 교환식 또는 탈착식 렌즈를 사용하기도 하지만, 시각차 문제는 여전히 해결 불가능한 문제로 남게 되어, 약간 넓거나 살짝 긴 정도의 망원용 액세서리 수준을 훨씬 뛰어 넘는 거리계연동 카메라를 출시하여 성공한 카메라 제조자는 아직 없다. 거리계연동 렌즈를 부가할 경우에는 항상, 이와 유사한 뷰파인더 렌즈가 동반되어야 한다. 그렇지 않다면, 사용자가 바라본 장면과 촬영된 사진이 전혀 일치하지 않게 된다. 이에 렌즈 비용이 두 배로 들게 된다. 액세서리 렌즈에 대한 동일한 한계를 갖는, 거리계연동 카메라에서 파생된 것으로 2안 반사식(twin lens reflex) 카메라가 있는데, ROLLEI-WERKE™ 사에서 만든 카메라를 예로 들 수 있다.
Some distance meter interlocking cameras use interchangeable or removable lenses, but the visual difference problem remains an unresolvable problem, and successful camera manufacturers have launched a rangefinder camera that goes well beyond the slightly wider or slightly longer range of telephoto accessories not yet. When adding a distance meter interlocking lens, a similar viewfinder lens should always be used. Otherwise, the scene viewed by the user and the photographed image will not match at all. This will double the lens cost. A twin lens reflex camera, derived from a rangefinder camera with the same limitations on accessory lenses, is a camera made by ROLLEI-WERKE ™.

컴팩트형, 또는 P&S("point and shoot") 카메라Compact, or P & S ("point and shoot") camera

현재 일반 사용자에게 가장 인기있는 형식은 "P&S" 카메라(일명, '똑딱이')이다. 이 카메라는 처음에 필름 카메라로서 등장했지만 지금은 거의 모두 디지털 카메라이다. 대부분의 이 카메라는 광학식 줌 렌즈를 영구적으로 부착하고 있으며 광학계를 교환할 수 없다. 줌렌즈는 일반적으로, 약간의 광각부터 저배율의 망원 기능까지 가능한 4×의 배율을 갖는다. 줌 기능시의 화질 및 속도를 보장하기 위해서 이 배율보다 큰 배율은 적용하지 않는다. 일부 업체에서는 이 4× 배율 이상의 줌 기능을 적용하고 있지만, 결과 영상의 화질과 속도가 나빠진다. Currently, the most popular format for general users is the "P & S" camera (aka, "tick"). This camera first appeared as a film camera, but now it is almost all digital cameras. Most of these cameras are permanently attached to the optical zoom lens and the optical system can not be replaced. The zoom lens generally has a magnification of 4x, which can range from a small wide angle to a low magnification telescopic function. To ensure the quality and speed of the zoom function, magnifications larger than this magnification are not applied. Some companies use the zoom function of more than 4 × magnification, but the quality and speed of the resulting image deteriorate.

다른 카메라에서는 광학 배율을 크게 하기 위해 디지털 줌을 추가하기도 하지만, 대부분의 편집자와 사진 작가들은 디지털 줌으로 촬영한 사진을 싫어한다. 그 이유는 다음 단락에서 설명한다. 18mm의 SLR 렌즈(상대적 비교를 위해, 기존의 표준형 35mm 필름 SLR 카메라에 사용하는 렌즈로 전제함)에 해당하는 전경 만큼이나 넓은 광각 렌즈를 사용하는 P&S 카메라는 없다. 200mm의 SLR 렌즈(마찬가지로 표준형 35mm 필름 카메라에 사용하는 렌즈로 전제함) 만큼이나 긴 망원 렌즈를 사용하는 P&S 카메라는 없다. 오늘날에는 통상의 카메라보다도 이동전화기나 PDA를 이용하여 매일 사진을 촬영한 경우가 더 많다. 이들 이동전화기나 PDA도 본 명세서에서는 P&S 카메라에 포함시키기로 한다.
Other cameras add digital zoom to increase the optical magnification, but most editors and photographers hate photos taken with digital zoom. The reason is explained in the next paragraph. No P & S camera uses a wide-angle lens as wide as the foreground, equivalent to an 18mm SLR lens (for comparative comparison, a lens used in conventional standard 35mm film SLR cameras). There is no P & S camera that uses a telephoto lens that is as long as a 200mm SLR lens (which is also the same as a standard 35mm film camera). Today, more and more pictures are taken everyday using a mobile phone or PDA than a normal camera. These mobile phones and PDAs are also included in the P & S camera in this specification.

일안 반사식(SLR, single lens reflex) 카메라Single lens reflex (SLR) camera

일안 반사식 카메라에서는 액세서리 렌즈의 선택폭이 크기 때문에 오늘날 고급 아마추어와 전문가들에 의해 가장 일반적으로 사용된다. 35mm 필름 SLR 카메라에, 액세서리 렌즈가 18mm 어안 렌즈에서부터 1,000mm 초고배율 망원 렌즈까지 있으며, 여기에 더해 그 사이에 있는 다양한 배율을 사용할 수 있는 광학식 줌 렌즈도 있다. In single-lens reflex cameras, the choice of accessory lenses is so wide that it is most commonly used today by high-end amateurs and professionals. There are 35 mm film SLR cameras, accessory lenses ranging from 18 mm fisheye lenses to 1,000 mm ultra high magnification telephoto lenses, plus optical zoom lenses that can use various magnifications in between.

SLR에서는, 뷰파인더로 들어가는 영상을 반사하는 거울이 촬영용 렌즈의 뒤에 있다. 셔터를 누르면 이 거울이 올라가 광로에서 벗어나 상이 필름이나 센서에 직접 맺게 된다. 이러한 방식에 의해서, 뷰파인더로 보는 장면이, 극도의 광각 촬영에서부터 망원 촬영에 이르기까지, 거의 정확한 영상이 된다. 이러한 "정확한" 영상 촬영에 대한 유일한 예외는 신속한 촬영 동작에 관한 것으로서, 거울의 움직임으로 인한 시간 지연으로 인해서 작가가 뷰파인더로 좀전에 본 장면과 실제 촬영되는 영상에 약간의 차이가 발생한다는 것이다. In SLR, a mirror that reflects the image entering the viewfinder is behind the photographing lens. When the shutter is pressed, this mirror moves up and out of the optical path, and the image is directly formed on the film or sensor. In this way, the scene viewed in the viewfinder is almost accurate, from extreme wide-angle shooting to telephoto shooting. The only exception to this "precise" imaging is the rapid shooting operation, which is caused by the time delay caused by the movement of the mirror, resulting in a slight difference between the scene that the author has seen before and the image actually captured.

일부 내재된 단점에도 불구하고, 아주 다양한 렌즈의 활용성 측면에서 SLR은 20세기 후반에 인기있는 카메라가 되었다. SLR의 단점은, 다른 형식의 카메라보다도 가동(움직이는) 부품이 많음에 따라 기구가 복잡해지고, 이와 더불어 거울의 움직임으로 인한 소음, 진동, 그리고 시간 지연을 들 수 있다. 또한, 움직이는 거울의 광로 앞 먼 곳에 있는 렌즈가 필름이나 센서에서부터 더 멀어야 하기 때문에 렌즈의 설계에 제약이 있고, 이에 따라 렌즈가 무겁고 커진다. 또한 렌즈 교환시에 카메라 바디 및 렌즈 후방부에 먼지, 습기, 기타 이물질이 들어가게 된다. Despite some inherent disadvantages, in terms of the versatility of the lens, the SLR became a popular camera in the late 20th century. The disadvantage of the SLR is that it becomes more complicated as more moving parts are used than other types of cameras, as well as noise, vibration, and time delay due to mirror movement. Also, since the lens far from the optical path of the moving mirror has to be farther away from the film or the sensor, the design of the lens is restricted, and the lens becomes heavy and large. In addition, dust, moisture, and other foreign matter will enter the camera body and back of the lens when replacing the lens.

필름과 달리 센서는 고정되어 있기 때문에 디지털 SLR이 나오면서 먼지 유입이 큰 문제가 되었다. 필름은 감기면서 먼지 조각도 함께 감을 수 있기 때문에 사진 프레임 하나에만 영향을 줄 뿐이지만, 디지털 카메라의 경우에는 센서를 닦아내지 않는 한은 모든 사진에 먼지가 찍히게 된다. 최근의 설계에서는 센서를 청소하기 위해서 간헐적으로 센서를 진동시킨다. 그러나 이에 의해서도 카메라에 묻은 먼지는 제거할 수 없고 기름 입자도 제거하지 못한다. 보다 최근의 설계에서는 이 문제의 심각성을 인식하여, 카메라 내부에 접착띠를 설치하여 센서에서 진동에 의해 떨어지는 먼지가 여기에 달라붙도록 하고 있다. 그러나 이 접착띠를 정기적으로 교체해야 하기 때문에, 카메라 사용자는 이 작업을 하기 위한 서비스 기술자를 필요로 하게 된다. Unlike film, the sensors are fixed, so digital SLR is coming out and dust inflow is a big problem. The film affects only one photo frame because it winds and winds up the dust particles, but in the case of a digital camera, all the pictures are dusty unless the sensor is wiped off. In recent designs, the sensor is vibrated intermittently to clean the sensor. However, this also does not remove dust from the camera or remove oil particles. A more recent design recognizes the seriousness of this problem and installs an adhesive band inside the camera so that the dust falling by the vibration from the sensor sticks to it. However, since the adhesive strip needs to be replaced regularly, the camera user needs a service technician to do this work.

SLR의 고유 기능은 교환가능한 렌즈를 사용하는 것이기 때문에, 상기 문제는 지속된다. 거울 관련 메카니즘과 뷰파인더 광학부에 의해 무게가 늘고 크기가 커진다. SLR에서는 정확한 렌즈 및 렌즈를 바디에 부착하는 메카니즘이 필요하기 때문에 SLR 렌즈와 SLR 바디 사이에 기계적, 전기적 연결이 이루어져야 한다. 이로써 무게, 복잡성, 비용이 더욱 커진다. 상기 "진동" 설계 중 일부에 있어서는, 수직 위치에 있는 동안에, 즉, 카메라가 하늘을 향하거나 땅을 향하거나 할 동안에 센서가 진동할 경우에 먼지를 잡을 접착띠가 없을 때에는, 모든 사진을 수평 형태로 촬영할 것으로 전제한다.
Since the inherent function of the SLR is to use interchangeable lenses, the above problem persists. The mirror-related mechanism and viewfinder optics increase the weight and size. SLR requires a mechanical and electrical connection between the SLR lens and the SLR body, as it requires a mechanism to attach the correct lens and lens to the body. This increases weight, complexity and cost. In some of the "vibratory" designs, when there is no adhesive band to catch dust while the sensor is vibrating while in the vertical position, i.e., .

광학식 줌 렌즈Optical zoom lens

광학식 줌 렌즈는 SLR 렌즈의 교환 필요성을 줄여준다. 대부분의 촬영시에 사진 작가는 단순하게 줌인 줌아웃 기능을 이용한다. 그러나 어떤 상황에서는 여전히 더 넓고 긴 SLR용 액세서리 렌즈를 필요로 하게 되고, 어쨌든 사용자는 렌즈를 교환해야 한다.The optical zoom lens reduces the need to replace the SLR lens. For most shots, the photographer simply uses the zoom-in zoom-out function. In some situations, however, you will still need a larger, longer SLR accessory lens, and you will have to replace the lens anyway.

오늘날 많은 P&S 카메라에는 기본적으로 줌 렌즈가 영구 장착되어 있고, 거의 모든 SLR는 부속품으로서 줌 렌즈를 제공하고 있다. 광학 기술의 발전이 계속 이루어지고 있다 하더라도, 줌의 범위에 대해서는 어떠한 렌즈라도 적절하게 작용가능해야 하는 기술적 한계가 있다. 줌 렌즈에 대한 또다른 딜레마는, 표준 렌즈보다 줌 렌즈가 더 무겁고, "느리고"(이 의미는 통과하는 광량이 적어서 유용성이 제한된다는 것임), 선명한 영상을 얻을 수 없으며, 초점거리 고정형 렌즈에 비해 색상 충실도가 떨어진다는 것이다.Many P & S cameras today have a permanently fitted zoom lens, and almost all SLRs offer a zoom lens as an accessory. Although optical technology continues to evolve, there is a technical limitation that any lens must be able to function properly with respect to the zoom range. Another dilemma for the zoom lens is that the zoom lens is heavier, "slower" than the standard lens (meaning the usability is limited due to less light passing through it), no clear image can be obtained, The color fidelity drops.

또한, 광학식 줌은 렌즈 구성요소의 움직임이 더 많아야 하기 때문에 가동 부품이 늘어나게 되어 시간 및 사용상의 기계적 문제를 일으키며 비용이 추가된다. 광학식 줌은 기계적으로 신축되기 때문에 마치 공기펌프처럼 작용하여, 원거리 확대(줌인)시에는 외부 공기를 빨아들이고, 줌아웃에 의해 수축시에는 공기를 압축하게 된다. 이에 의해 습기(때로는 먼지)가 내부로 쉽게 유입된다.
Also, optical zoom expands the moving parts because the movement of the lens components has to be more, which causes mechanical problems in terms of time and usage, and adds cost. Since the optical zoom is mechanically stretched, it acts like an air pump, sucking outside air when zooming in at a long distance, and compressing air when contracted by zooming out. As a result, moisture (sometimes dust) easily flows into the interior.

II. 기존 휴대전화 카메라의 한계
II. Limitations of Existing Mobile Phone Cameras

가트너(Gartner) 그룹은 2009년에 세계적으로 10억이 넘는 휴대전화가 팔렸다고 보고했다. 현재 사용가능한 많은 휴대전화에는 카메라가 장착되고 있다. 이러한 카메라는 일반적으로, 통상의 렌즈 뒤에 단순한 구조로 평면 설치된 저화질 사진 장치이다. 이러한 휴대전화 카메라로 촬영하는 사진의 화질은, P&S급 이상의 사진 전용 카메라로 촬영한 사진의 화질보다 대체로 낮다. 일반적으로 휴대전화 카메라에는 셔터 속도, 망원 기능, 또는 기타 기능을 위한 고급 제어기가 부족하다.
The Gartner group reported that more than a billion mobile phones were sold globally in 2009. Many cell phones now available are equipped with cameras. Such a camera is generally a low-quality photographic device which is flatly mounted with a simple structure behind an ordinary lens. The picture quality of pictures taken with such a mobile phone camera is generally lower than the picture quality of pictures taken with a P & S or higher picture-only camera. In general, cell phone cameras lack advanced controls for shutter speed, telephoto functions, or other functions.

기존의 휴대전화 및 PDA 카메라의 네 가지 결점Four drawbacks of traditional cell phone and PDA cameras

1. 평면형 디지털 센서를 사용하므로 광학적 결점이 있어서 낮은 화질의 사진을 얻게 된다. 정상적인 해상도를 얻으려면 보다 큰 렌즈가 필요한데, 그렇게 하면 이러한 소형 장치를 거추장스럽게 할 수 있다. 1. Because of the use of a flat-type digital sensor, there are optical defects, resulting in low-quality pictures. Larger lenses are needed to get a normal resolution, which can make these compact devices cumbersome.

2. 또다른 결점은 렌즈가 "느려서" 많은 빛을 집광할 수 없는 점이다. 이러한 장치로 찍는 사진의 대부분은 일몰 후에 또는 실내에서 촬영된다. 이 때문에 플래시 조명이 필요하게 된다.2. Another drawback is that the lens is "slow" so it can not concentrate much light. Most of the pictures taken with this device are taken after sunset or indoors. This necessitates flash illumination.

소형 장치에서는 플래시 조명 가까이에 렌즈가 설치될 수 밖에 없는데, 이 때에 "적목" 현상이 자주 발생한다. 어두운 곳에서는 더 잘 보기 위해 눈의 동공이 크게 열린다. 이 때에 플래시 빛이 눈의 망막에서 반사되어 눈동자가 빨갛게 찍히게 된다. 적목을 없애기 위해 일부 카메라 제조자는 플래시를 사용해 사진을 찍기 전에 다른 플래시를 순간적으로 터뜨려서 동공이 닫히도록 카메라를 제작한다. 그러나 이 기능은 이따금씩 작동하며 자연스러운 포즈를 잡는 것을 늘 방해한다. In a small device, the lens is installed close to the flash light, and a "red-eye" phenomenon occurs frequently. In the dark, the pupil of the eye opens wide for better viewing. At this time, the flash light is reflected from the retina of the eye and the pupil is reddish. To get rid of red eye, some camera makers use a flash to instantly burst another flash before taking a picture to create a camera that closes the pupil. However, this feature works intermittently and interferes with the natural pose.

사용자가 적목을 없앨 수 있는 펜슬 기능도 있다. 사람용 적목 제거 펜슬이 있고, 심지어는 애완 동물용 적목 제거 펜슬도 있다. 일부 카메라 소프트웨어 개발자는 적목을 검출하여 인공적으로 적목을 제거하는 알고리즘을 만들었다. 이에 의해서 피사체의 실제 안구 색상과 일치시킬 수 있지만 항상 그러한 것은 아니다. There is also a pencil feature that allows the user to remove red-eye. There are red-eye reduction pencils for people, and even red-eye reduction pencils for pets. Some camera software developers have created algorithms that detect red eye and artificially remove red eye. This can match the actual eye color of the subject, but this is not always the case.

3. 플래시 조명을 이용하여 사진 촬영하므로 배터리 사용시간이 단축된다.3. By taking pictures with flash light, battery usage time is shortened.

4. 플래시 조명에 의한 사진 촬영은 인공적이다. 즉, 배경은 어두워지고, 전경에 있는 얼굴은 하얗게 찍히게 된다. 턱선이 두드러지게 되고, 때로는 사람의 콧구멍이 들여다 볼 정도로 찍히기도 한다. 현재 고화질(HD) 텔레비전의 판매로 인해 대중의 선명한 영상 요구가 증가하고 있다.
4. Photographing with flash light is artificial. In other words, the background becomes dark and the face in the foreground becomes whiter. The jaw line becomes prominent, and sometimes the person's nostrils are seen to be seen. Currently, the sales of high-definition (HD) televisions are increasingly demanding for the public.

과거에는 INSTAMATIC® 카메라를 이용해서도 많은 사진 촬영을 했지만, 대중은 곧 이러한 저화질 사진에 싫증을 내게 되었다. 전문가와 진지한 애호가들이 35mm 카메라를 사용하게 되었고, 곧이어 이 카메라가 대중적인 시장 제품이 되었다. 현재는 전례없이 많은 사진이 휴대전화로 촬영되고 있으나 사진 품질이 이류이기 때문에, 그러한 싸이클이 반복될 가능성이 크다. 이러한 문제를 줄이기 위한 장치의 개발에 의해 주된 기술적 진보가 이루어질 것이고, 영상 취득 분야에서 오랫동안 요구되던 것들을 충족하게 될 것이다.In the past, many photographs were taken using INSTAMATIC ® cameras, but the public soon became tired of these low-quality photographs. Experts and serious enthusiasts began using the 35mm camera, which soon became a popular market product. At present, many unprecedented photographs are taken on a mobile phone, but since the quality of the picture is adulterated, such a cycle is likely to be repeated. Major technological advances will be made by the development of devices to reduce these problems and will meet long-standing needs in the field of image acquisition.

본 발명은 곡면 센서를 사용하는 카메라가 포함되는 이동통신 장치에 대한 방법과 장치를 제공한다. 본 발명의 특정 실시예에 따르면, 이동통신 장치에는 휴대 또는 무선 전화, 스마트폰, 개인 디지털 보조장치(PDA), 랩톱 또는 노트북 컴퓨터, 또는 기타 휴대용 정보 기기가 포함될 수 있다.The present invention provides a method and apparatus for a mobile communication device including a camera using a curved sensor. According to certain embodiments of the invention, the mobile communication device may include a portable or cordless phone, a smart phone, a personal digital assistant (PDA), a laptop or notebook computer, or other portable information device.

본 발명의 일 실시예는 곡면 센서를 포함하는 카메라용 방법 및 장치에 관한 것이다. 다른 실시예에서, 카메라에는 기계식 영상 안정화 기능이 포함된다. 또 다른 실시예에서는 전자식 영상 안정화를 사용한다. 또 다른 실시예에서는 광학식 영상 안정화를 사용한다.One embodiment of the invention relates to a method and apparatus for a camera comprising a curved surface sensor. In another embodiment, the camera includes a mechanical image stabilization function. In another embodiment, electronic image stabilization is used. In another embodiment, optical image stabilization is used.

또 다른 실시예에서, 종래의 센서를 갖는 카메라는, 카메라 외함의 외부에 장착되어 자동으로 제어되는 렌즈 차양을 포함한다. 이 자동제어식 렌즈 차양은 망원 촬영시에는 펼쳐지고 광각 촬영시에는 오므려진다. 또 다른 실시예에서, 카메라는 교정용 광학요소와 함께, 미니센서들의 아치형 배열을 이용한다.In yet another embodiment, a camera with a conventional sensor includes a lens shade mounted externally of the camera enclosure and automatically controlled. This auto-controlled lens canopy unfolds during telephoto shooting and is worn out during wide-angle shooting. In yet another embodiment, the camera uses an arcuate array of mini sensors together with a calibration optical element.

본 발명의 다른 목표 및 목적의 인식, 그리고 본 발명의 보다 완전하고 포괄적인 이해는, 이하의 바람직한 실시예의 설명을 연구함으로써, 그리고 첨부 도면을 참조함으로써 얻을 수 있게 된다.A better understanding of the other objects and objects of the present invention and a more complete and comprehensive understanding of the present invention can be obtained by studying the following description of the preferred embodiments and by referring to the accompanying drawings.

이동통신 장치와 곡면 센서를 결합함으로써 다음의 효과를 얻게 된다. The following effects can be obtained by combining the mobile communication device and the curved surface sensor.

1. 평면 센서를 갖는 기존의 휴대전화보다 더 높은 화질의 사진을 얻게 된다. 이러한 고화질의 사진을 크고 비싼 렌즈 없이도 얻을 수 있다.1. I get a picture of higher quality than a conventional mobile phone with a flat sensor. These high-quality pictures can be obtained without large and expensive lenses.

2. 주위 조명을 밝게 하기 위해 필요한 플래시의 필요성을 줄이거나 없앨 수 있는 큰 집광 성능을 얻을 수 있다.2. Large condensing performance can be achieved, which reduces or eliminates the need for flash to brighten ambient lighting.

3. 배터리 사용 시간이 길어진다. 플래시의 필요성이 줄거나 없어지기 때문이다.3. Battery usage time becomes longer. The need for flash is reduced or eliminated.

또한, 곡면 센서를 이용한 카메라와 이동통신 장치를 결합함으로써, 사진 전용 휴대형 카메라가 필요없게 된다. 마치, 최근에 휴대전화에 시계가 내장되어 있기 때문에 많은 사람들이 손목 시계를 차지 않는 것과 같다. 최초로 고성능 카메라와 이동통신 장치를 결합한 본 발명에 의해서, 별도의 카메라를 휴대해야 할 필요성이 줄거나 없어지게 될 것이다.Further, by combining a camera using a curved surface sensor and a mobile communication device, a portable camera for photographs is not required. It's like a lot of people do not take their wrist watches because they have a built-in clock on their phones recently. According to the present invention, which combines a high-performance camera and a mobile communication device for the first time, the necessity of carrying a separate camera is reduced or eliminated.

도 1은 평면 필름 또는 평면 센서를 이용하는 종래의 일반적인 카메라를 도시하고 있다.
도 2는 사람의 안구를 단순하게 묘사하고 있다.
도 3은 본 발명의 일실시예에 따라 제조된 곡면 센서를 갖는 디지털 카메라의 개략적 전체 구성도이다.
도 4a, 4b, 4c는 대략 곡면을 이루고 있는 센서의 다양한 모습을 도시하고 있다.
도 5는 9 개의 평면 세그먼트 내지는 홑눈(facet)을 갖도록 제작한 센서를 도시하고 있다.
도 6은 다수의 홑눈(facet)으로 구성되어 대략 곡면을 형성하고 있는 물체의 단면을 나타낸다.
도 7은 도 6에 도시한 곡면의 사시도이다.
도 8은 도 6과 7에 도시한 센서를 전기적으로 연결하는 한 가지 방법을 제공한다.
도 9a와 9b는 도 7에 나타낸 센서의 또다른 상세도로서, 평평한 면을 구부릴 수 있도록 기재 상의 간극(gap)을 확장하기 전과 후의 모습을 나타낸다.
도 10a 및 도 10b는 센서 연결 방식을 도시한다.
도 11a와 11b는 구부리는 등의 방법으로 우산 모양과 같이 대략 돔 형상의 표면을 형성하기 위한 초박형 실리콘으로 된 일련의 꽃잎 형태 세그먼트들을 나타낸다.
도 12는 센서 세그먼트의 배열을 상세하게 도시한다.
도 13은 도 12에 표시한 세그먼트를 결합하여 형성되는 곡면 형태의 사시도이다.
도 14a, 14b, 14c는 심형(心型)(mandrel)을 사용하여 얇은 반도체 재료층을 써서 대략 돔 형태의 면을 형성하는 다른 방법을 설명한다.
도 14d, 14e, 14f는 심형을 사용하여 대략 돔 형태의 면을 형성하는 방법을 설명한다.
도 14g는 돔 형태의 면에 센서를 배치한 모습을 나타낸다.
도 15a는 광각 사진을 촬영하고 있는 카메라를 나타낸다.
도 15b는 실제 배율 사진을 촬영하고 있는 카메라를 나타낸다.
도 15c는 망원 사진을 촬영하고 있는 카메라를 나타낸다.
도 16, 17은 픽셀이 상대적으로 중앙에 더 집중되어 있는 실시예들 중 하나와 기존 센서의 영상을 비교함으로써 픽셀 밀도가 변화하는 특성을 설명하기 위한 도면이다.
도 18, 19, 20, 21은 오므라들고 펼쳐지는 렌즈 차양을 갖는 카메라의 개략적 모습을 도시한다. 카메라가 광각 촬영시에는, 렌즈 차양이 오므라들고 망원 촬영의 경우에는 렌즈 차양이 펼쳐진다. 실제 배율 촬영의 경우에는 렌즈 차양이 부분적으로 펼쳐진다.
도 22, 23은 복합 센서의 두 가지 모습을 나타낸다. 첫 번째 도면에서 센서는 원래의 위치에 정렬되어 있고 첫 번째 영상을 캡쳐한다. 두 번째 도면에서 센서는 회전하였으며 두 번째 영상을 캡쳐한다. 이들 두 연속 영상을 결합하여 완전한 최종 영상을 생성한다.
도 24a와 24b는 도 22, 23의 다른 실시예를 나타내는 것으로서 노출 시에 센서가 대각선 위치로 이동하는 것을 나타낸다.
도 25a, 25b, 25c, 25d는 다양하게 배열된 센서 홑눈과 그 사이에 있는 간극을 포함하는 센서 네 가지를 도시하고 있다.
도 26, 27, 28은 전기 신호를 출력하기 위해 사용하는 다양한 연결 방식을 도시한 것으로서, 움직이는 센서의 뒷면을 나타내고 있는 것이다.
도 29는 센서와 처리기 사이의 무선 연결을 설명하기 위한 블록 다이어그램이다.
도 30은 본 발명의 다른 실시예에 따른 카메라 장치의 측단면도이다.
도 31은 도 30의 카메라 장치의 센서의 전면도이다.
도 32는 본 발명의 다른 실시예에 따른 카메라 장치의 블록 다이어그램이다.
도 33, 34, 35, 36, 37은 곡면 센서를 내장한 전자 장치의 다양한 모습을 나타낸다.
도 38~50은 센서가 기존에 캡쳐할 수 있는 것보다 더 선명한 영상을 캡쳐하는 방법을 나타낸다.
도 51은 고정형 평면 센서 위에서 광학 요소가 완전한 원형 경로를 따라 이동하는 것을 나타내는 개략도이다.
도 52는 도 51에 표시한 광학 요소와 센서를 위에서 본 그림이다.
도 53은 고정형 곡면 센서 위에 있는 이동형 광학 요소의 개략도이다.
도 54는 도 53에 표시한 광학 요소와 센서를 위에서 본 그림이다.
도 55는 고정형 광학 요소 아래에서 평면 센서를 회전 이동시키는 방법의 개략도이다.
도 56은 도 55에 표시한 광학 요소와 센서를 위에서 본 그림이다.
도 57은 도 55와 56에 표시된 것과 같이, 센서의 회전 운동을 일으키는 방법을 나타내는 개략도이다.
도 58은 도 57에 나타낸 구성 요소의 사시도이다.
도 59는 고정형 광학 요소 아래에서 움직이는 곡면 센서의 회전 운동을 일으키는 방법의 개략도이다.
도 60은 도 59에 표시한 광학 요소와 센서를 위에서 본 그림이다.
도 61은 광학 요소를 원 운동시키는 방법의 개략도이다.
도 62는 단일 원형 경로를 따라 이동하는 평면 센서의 아홉 가지 모습을 나타낸다.
도 63은 픽셀이 배열된 평면 센서의 간략 묘사이다. 도 63에서 센서는 그 원래 위치에 있고, 도 64와 65에서는 센서가 원형 경로를 따라 계속해서 회전하고 있다.
도 66은 평면 센서와 렌즈의 조합을 나타낸다.
도 67은 간극을 갖는 곡면 센서와 렌즈의 조합을 나타낸다.
도 68과 69는 영상 안정화 기능이 없는 카메라로 수행한 첫 번째 노출의 두 연속된 장면을 나타낸다.
도 70과 70은 영상 안정화 기능을 갖는 카메라로 취한 수행한 첫 번째 노출의 두 연속된 장면을 나타낸다.
도 72는 육안으로 본 고양이의 모습을 도시한다.
도 73, 74는 카메라 내의 미니센서와 간극 위에 중첩된 고양이의 첫 번째 및 두 번째 노출의 두 연속된 장면을 나타낸다.
도 75는 고양이의 최종 합성 영상을 나타낸다.
도 76은 광학식 영상 안정화 장치를 나타내는 본 발명의 일 실시예의 개략도이다.
도 77은 전자식 영상 안정화 장치를 나타내는 본 발명의 또 다른 실시예의 개략도이다.
도 78은 렌즈 차양 모터 제어기를 나타내는 본 발명의 또 다른 실시예의 개략도이다.
도 79는 수동식 줌 및 렌즈 차양 제어기를 나타내는 본 발명의 또 다른 실시예의 개략도이다.
도 80~83은 렌즈 차양 제어 메커니즘을 설명하기 위한 개략도이다.
도 84는 수동식 줌 및 렌즈 차양 제어기를 도시하는 개략도이다.
도 85, 86, 87은 비닝 및 압축 방식을 설명하기 위한 도면이다.
도 88은 교정용 광학 요소와 함께, 미니센서의 아치형 배열을 도시한다.
Figure 1 shows a conventional conventional camera using a flat film or planar sensor.
Figure 2 simply depicts the human eye.
3 is a schematic overall configuration diagram of a digital camera having a curved surface sensor manufactured according to an embodiment of the present invention.
Figures 4A, 4B and 4C show various views of a sensor having a substantially curved surface.
Figure 5 shows a sensor made to have nine planar segments or facets.
6 shows a cross section of an object which is formed of a plurality of facets and forms a roughly curved surface.
7 is a perspective view of the curved surface shown in Fig.
Figure 8 provides one method of electrically connecting the sensors shown in Figures 6 and 7.
Figs. 9A and 9B show another detailed view of the sensor shown in Fig. 7, before and after expanding the gap on the substrate so as to bend the flat surface.
10A and 10B show the sensor connection method.
11A and 11B show a series of petal shape segments of ultra-thin silicon for forming a generally domed surface, such as an umbrella shape, by bending or the like.
12 shows the arrangement of sensor segments in detail.
13 is a perspective view of a curved surface formed by joining the segments shown in Fig.
Figures 14a, 14b and 14c illustrate another method of forming a generally dome-shaped surface using a thin layer of semiconductor material using a mandrel.
Figures 14d, 14e and 14f illustrate a method of forming a generally dome-shaped surface using cores.
FIG. 14G shows the arrangement of sensors on a dome-shaped surface.
15A shows a camera that photographs a wide-angle photograph.
15B shows a camera that photographs an actual magnification photograph.
15C shows a camera that photographs a telephoto picture.
FIGS. 16 and 17 are diagrams for explaining a characteristic of changing pixel density by comparing an image of an existing sensor with one of embodiments in which pixels are relatively more concentrated in the center. FIG.
Figs. 18, 19, 20 and 21 show a schematic view of a camera having a lens canopy that unfolds and unfolds. When the camera is in wide-angle shooting, the lens shade is broken, and in the case of telephoto shooting, the lens shade is spread. In actual magnification shooting, the lens shade partly unfolds.
Figures 22 and 23 illustrate two aspects of the composite sensor. In the first drawing, the sensor is aligned in its original position and captures the first image. In the second figure, the sensor rotates and captures the second image. These two consecutive images are combined to generate a complete final image.
24A and 24B illustrate another embodiment of Figs. 22 and 23, which shows that the sensor moves to a diagonal position upon exposure.
25A, 25B, 25C and 25D show four sensors including variously arranged sensor eyes and a gap therebetween.
FIGS. 26, 27 and 28 show various connection methods used for outputting electric signals, and show the back side of a moving sensor.
29 is a block diagram illustrating a wireless connection between a sensor and a processor.
30 is a side cross-sectional view of a camera apparatus according to another embodiment of the present invention.
31 is a front view of the sensor of the camera device of Fig.
32 is a block diagram of a camera apparatus according to another embodiment of the present invention.
Figs. 33, 34, 35, 36 and 37 show various aspects of the electronic device incorporating the curved surface sensor.
Figures 38-50 illustrate how a sensor captures a sharper image than can be captured.
51 is a schematic diagram showing that the optical element moves along a complete circular path on a fixed planar sensor;
52 is a top view of the optical element and sensor shown in Fig.
53 is a schematic view of a movable optical element on a fixed curved surface sensor.
FIG. 54 is a top view of the optical element and sensor shown in FIG. 53; FIG.
55 is a schematic diagram of a method of rotationally moving a planar sensor under a fixed optical element.
FIG. 56 is a top view of the optical element and sensor shown in FIG. 55; FIG.
57 is a schematic diagram showing a method of causing rotational movement of the sensor, as shown in Figs. 55 and 56; Fig.
Figure 58 is a perspective view of the components shown in Figure 57;
59 is a schematic diagram of a method for causing rotational motion of a curved surface sensor moving under a fixed optical element;
FIG. 60 is a top view of the optical element and sensor shown in FIG. 59; FIG.
61 is a schematic view of a method of circularly moving an optical element.
Figure 62 shows nine aspects of a planar sensor moving along a single circular path.
63 is a simplified depiction of a planar sensor in which pixels are arranged. In Fig. 63, the sensor is in its original position, and in Figs. 64 and 65, the sensor continues to rotate along the circular path.
66 shows a combination of a planar sensor and a lens.
67 shows a combination of a curved surface sensor and a lens having a gap.
68 and 69 show two successive scenes of the first exposure performed by the camera without the image stabilization function.
70 and 70 show two consecutive scenes of the first exposure performed with the camera having the image stabilization function.
72 shows the appearance of a cat seen with the naked eye.
Figures 73 and 74 show two consecutive scenes of the first and second exposures of the cat and the mini-sensor in the camera and superposed on the gap.
75 shows a final composite image of a cat.
76 is a schematic view of an embodiment of the present invention showing an optical image stabilizer.
77 is a schematic view of still another embodiment of the present invention showing an electronic image stabilization device.
78 is a schematic diagram of another embodiment of the present invention showing a lens awning motor controller;
79 is a schematic diagram of another embodiment of the present invention showing a manual zoom and lens canopy controller.
80 to 83 are schematic diagrams for explaining the lens canopy control mechanism.
84 is a schematic diagram showing a manual zoom and lens canopy controller;
Figures 85, 86 and 87 are views for explaining the binning and compression method.
Figure 88 shows an arcuate arrangement of mini sensors with calibration optics.

I. 발명의 개요
I. Summary of the Invention

본 발명은 비평면, 구부러진, 또는 곡면 센서를 갖는 카메라에 관한 방법 및 장치를 제공한다. 본 발명은 이동통신 장치와 결합가능하다. 본 명세서 및 특허청구범위에서, 용어 "이동통신 장치" 및 "이동통신 수단"은 정보, 데이터, 콘텐츠 또는 기타 형태의 신호나 정보를 통신(송신 및/또는 수신을 포함)하기 위해 사용가능한 장치 또는 하드웨어 및/또는 소프트웨어의 결합을 포함하는 것으로 의도하였다.The present invention provides a method and apparatus for a camera having a non-planar, curved, or curved sensor. The present invention can be combined with a mobile communication device. In the present specification and claims, the terms mobile communication device and mobile communication means are intended to encompass all types of devices or devices that are capable of communicating (including transmitting and / or receiving) information, data, ≪ / RTI > is intended to include a combination of hardware and / or software.

이동통신 장치의 구체적 예를 들자면, 셀룰러 또는 무선 전화, 스마트폰, 개인 디지털 보조기(PDA), 랩톱 또는 노트북 컴퓨터, 아이패드™ 또는 그 외의 리더/컴퓨터, 또는 통신용으로 사용하거나 영상 콘텐츠를 보거나 기록하는데 사용할 수 있는 다른 일반 휴대용 장치를 들 수 있다. 종래의 평면 센서를 포함하는 카메라가 장착된 기존 셀룰러 전화와는 달리, 본 발명에서는 곡면형, 그렇지 않으면 비평면형 센서를 포함하고 있다. 일실시예에 따르면, 본 발명에 사용되는 센서의 비평면 표면은 다수의 작은 평평한 세그먼트로 구성되는데, 이들이 모여서 대략적으로 곡면을 형성하고 있다. 종래의 센서는 거의 대체로 2차원 평면인 것과 달리, 본 발명에서 사용하는 센서는 전반적으로 3차원 공간을 점유하고 있다. Specific examples of mobile communication devices include, but are not limited to, cellular or cordless phones, smart phones, personal digital assistants (PDAs), laptop or notebook computers, iPads ™ or other reader / Other common portable devices that can be used include: Unlike conventional cellular phones equipped with cameras comprising conventional planar sensors, the present invention includes curved, otherwise non-planar, sensors. According to one embodiment, the non-planar surface of the sensor used in the present invention is composed of a plurality of small flat segments, which gather to form a roughly curved surface. Unlike a conventional sensor, which is almost a two-dimensional plane, the sensor used in the present invention occupies a three-dimensional space as a whole.

본 발명은, 다양한 3차원적 형상(구면, 포물면, 타원면을 포함. 그러나 이들에 국한되지는 않음)으로 이루어지는 센서를 이용할 수 있다. 본 명세서에서, 용어 "곡선"과 "곡면"은 직선과 완전히 동일선상에 있지 않은 모든 선, 엣지, 경계, 세그먼트, 표면 또는 특징을 망라하는 개념이다. 용어 "센서"는 입사된 임의 파장의 광자에 반응하는 검출기, 영상 형성기, 측정기, 트랜스듀서, 초점면 배열체, 전하결합 소자(CCD), 상보성 금속산화막 반도체(CMOS), 또는 광전지를 포괄하는 개념이다.The present invention can use sensors comprising various three-dimensional shapes (including, but not limited to, spherical, parabolic, and elliptical). As used herein, the terms "curve" and "curved surface" are concepts that encompass all lines, edges, boundaries, segments, surfaces, or features that are not completely collinear with straight lines. The term "sensor" is intended to encompass detectors, imagers, imagers, transducers, focal plane arrays, charge coupled devices (CCD), complementary metal oxide semiconductor (CMOS) to be.

본 발명의 일부 실시예는 광학적 스펙트럼 상에서 영상을 기록하도록 구성되어 있고, 본 발명의 다른 실시예는 다른 형태의 광방사를 모으고 감지하고 기록하는 다양한 작업을 위해 사용할 수 있다. 본 발명의 실시예에는, 색상, 흑백, 적외선, 자외선, X선, 또는 기타 유형의 방사, 방출, 파동, 입자의 흐름을 취합하고/취합하거나 기록하는 장치가 포함된다. 본 발명의 실시예에는 또한, 정지 영상이나 동영상을 기록하는 장치가 포함된다.
Some embodiments of the present invention are configured to record images on an optical spectrum and other embodiments of the present invention may be used for various tasks of collecting, sensing, and recording other types of optical radiation. Embodiments of the present invention include apparatus for collecting / collecting or recording color, monochrome, infrared, ultraviolet, X-ray, or other types of radiation, emission, Embodiments of the present invention also include devices for recording still images or moving images.

II. 본 발명의 구체적 실시예들
II. Specific embodiments of the present invention

도 3은 이동통신 장치에 결합될 수 있는, 곡면 센서(12)를 포함하고 있는 디지털 카메라의 전체 개략도이다. 외함(14)의 일측에 광학 요소(16)가 있다. 대물 렌즈(16)가 입사광(18)을 받는다. 본 실시예에 따르면 광학 요소가 대물 렌즈이다. 일반적으로, 센서(12)는 입사하는 광자(18)의 에너지를 전기 신호(20)으로 변환한 다음에, 신호 처리기 또는 광자 처리기(22)로 출력한다. 신호 처리기(22)는 사용자 조작기(24), 배터리 또는 전원공급 장치(26), 반도체 메모리(28)에 연결되어 있다. 신호 처리기(22)에서 생성된 영상은 메모리(28)에 저장된다. 영상은 USB 포트 등의 출력 단자(30)을 통해 카메라로부터 출력 또는 다운로드할 수 있다.3 is an overall schematic view of a digital camera including a curved surface sensor 12, which may be coupled to a mobile communication device. On one side of the enclosure 14 is an optical element 16. And the objective lens 16 receives the incident light 18. According to this embodiment, the optical element is an objective lens. Generally, the sensor 12 converts the energy of an incident photon 18 into an electrical signal 20 and then outputs it to a signal processor or photon processor 22. The signal processor 22 is connected to a user manipulator 24, a battery or power supply 26 and a semiconductor memory 28. The image generated in the signal processor 22 is stored in the memory 28. The image can be output or downloaded from the camera through an output terminal 30 such as a USB port.

본 발명의 실시예들에는 다음과 같은 센서를 내장한 카메라가 장착된 이동통신 장치가 포함되지만, 이들에 국한되는 것은 아니다.Embodiments of the present invention include, but are not limited to, a mobile communication device equipped with a camera incorporating the following sensors.

1. 곡면 센서 : 구체의 대체적으로 연속적인 부분, 또는 포물면이나 타원면과 같은 원뿔 부분의 회전 형상, 또는 기타 평면이 아닌 형상을 갖는 센서. 대체적으로 곡면인 센서(12)의 예는 도 4a, 4b, 4c에 도시하였다. 본 명세서에서는 곡면 센서의 다양한 실시예를 참조번호 12, 12a, 12b, 12c 등으로 지정하였다. 1. Curved sensor: a sensor having a generally continuous part of a sphere, a rotational shape of a conical part such as a parabola or an ellipsoid, or other non-planar shape. Examples of sensors 12, which are generally curved, are shown in Figures 4A, 4B and 4C. Various embodiments of the curved surface sensor are designated herein as 12, 12a, 12b, 12c, and the like.

2. 홑눈(facet)으로 이루어진 센서 : 다각형 홑눈(또는 세그먼트)의 집합체. 임의의 적절한 다각형, 즉, 사각형, 직사각형, 삼각형, 사다리꼴, 5각형, 6각형, 7각형, 8각형 등을 사용할 수 있다. 도 5는 9개의 평면 다각형 세그먼트, 즉, 홑눈(32a)으로 구성된 센서(12a)를 나타낸다. 일부 응용을 위해서, 평면 센서 수 개를 단순하게 조립한 것은, 그 가격은 훨씬 낮아지겠지만 매끈한 곡면 센서의 이득을 잃을 수도 있다. 도 6과 7은, 다수의 홑눈(32b)이 모여 대체로 구형을 이루고 있는 센서 표면(12b)의 측면도 및 사시도이다. 도 7에서는 홑눈 사이의 간극(34)을 과장해서 표현하였다. 홑눈에는 각각 수백, 수천, 또는 수백만 개의 픽셀이 있을 수 있다. 본 명세서에서 센서(12)의 홑눈은 참조번호 32, 32a, 32b, 32c 등으로 지정하였다. 2. A sensor consisting of a facet: a collection of polygonal eyepieces (or segments). Any suitable polygon may be used, such as square, rectangular, triangular, trapezoidal, pentagonal, hexagonal, hexagonal, octagonal, and the like. Fig. 5 shows a sensor 12a composed of nine planar polygonal segments, that is, a single eye 32a. For some applications, simply assembling a few flat sensors can lose the benefit of a smooth surface sensor, though the price will be much lower. 6 and 7 are a side view and a perspective view of a sensor surface 12b in which a plurality of single eyes 32b are gathered to form a generally spherical sensor surface 12b. In FIG. 7, the gap 34 between the single eyes is exaggerated. Each eye may have hundreds, thousands or millions of pixels, respectively. In this specification, the eye of the sensor 12 is designated by reference numeral 32, 32a, 32b, 32c, and the like.

도 8은 도 7에 표시된 곡면 센서(12b)에 접속되는 전기 연결부(36)를 나타낸다. 내부 표면에는 반도체 면이 배열된다. 외부 표면은 MYLAR™, KAPTON™, 또는 이와 유사한 곡선 형태의 배선판일 수 있다. 반도체 면과 배선판은 관통홀(via)을 통해서 전기적으로 연결된다. 일실시예에 따르면, 홑눈 배열과 배선판을 연결하기 위해 2점 내지 2,000점 이상의 전기적 경로가 필요할 수 있다. Fig. 8 shows an electrical connection 36 connected to the curved surface sensor 12b shown in Fig. A semiconductor surface is arranged on the inner surface. The exterior surface may be MYLAR (TM), KAPTON (TM), or similar curved wiring boards. The semiconductor surface and the wiring board are electrically connected through a via hole. According to one embodiment, an electrical path of 2 to 2,000 points or more may be required to connect the eye piece arrangement to the wiring board.

본 발명의 일 실시예에 있어서, "구부릴 수 있는" 실리콘을 제작하기 위해 여러 가지 방법이 현재 사용가능하다.In one embodiment of the present invention, various methods are currently available for making "bendable" silicon.

Techcrunch 웹사이트에는, "일본 화학 회사 Teijin은 캘리포니아 소재 NanoGram과 협력하여서, 구부림이 가능한 실리콘 반도체칩을 제조할 수 있는 기술을 개발했다. 핵심 요소는 직경이 수십 나노미터(나노미터(nm)는 1/10억 미터(m)임)인 작은 실리콘 입자를 사용한 것이다"라는 2009년 8월 19일자 게시물이 있다."The Japanese chemical company Teijin, in cooperation with NanoGram, Calif., Has developed a technology capable of producing bendable silicon semiconductor chips, with a diameter of tens of nanometers (nanometers (nm) 1 / 1 billion meters (m)). "There is a post on August 19, 2009.

Sun 등은 2005년 8월 15일에 발간된 논문 '플라스틱 기판 상에 인쇄된 GaAs 와이어 배열로 형성된 구부림 가능한 GaAs 금속 반도체 FET(Bendable GaAs metal-semiconductor field-effect transistors formed with printed GaAs wire arrays on plastic substrates)'에서, "집적된 옴 접촉부를 갖는 GaAs의 마이크로/나노 와이어를, 금속 증착 및 패턴형성, 고온 어닐링, 그리고 이방성 화학 에칭에 의해서 벌크 웨이퍼로부터 제조하였다. 이들 와이어는 일반적이지 않은 다양한 소자 기판(플라스틱이나 종이 등) 위에 직접적으로 구성할 수 있는 고성능 소자를 제작하기 위한 독특한 형태의 재료가 된다. 특히, 인쇄에 의해 구성된 이들 와이어 배열을 저온에서 플라스틱 기판 상으로 전사하면 고품질의 구부림 가능한 금속 반도체 FET가 제조된다"라고 개시하였다.Sun et al. Published a paper published on August 15, 2005, entitled " Bentable GaAs Metal-Semiconductor FETs " formed from GaAs wire arrays printed on plastic substrates. "Micro / nanowires of GaAs with integrated ohmic contacts were fabricated from bulk wafers by metal deposition and patterning, high temperature annealing, and anisotropic chemical etching. In particular, when these wire arrays constituted by printing are transferred from a low temperature onto a plastic substrate, a high-quality bendable metal semiconductor FET Quot; is manufactured. "

Endgadget 웹사이트에는, "IMEC의 연구원들은 4000개의 트랜지스터를 갖는 8비트 논리회로를 만들기 위하여 플라스틱 기판, 금 회로, 유기 유전체, 및 펜타센(pentacene) 유기 반도체를 적층함으로써 구부림이 가능한 마이크로프로세서를 개발하였다"라고 게시되어 있다."The IMEC researchers have developed a bendable microprocessor by stacking plastic substrates, gold circuits, organic dielectrics, and pentacene organic semiconductors to create 8-bit logic circuits with 4000 transistors ".

본 발명의 다른 실시예에서, 센서는 스트레스 실리콘(stressed silicon) 또는 응력 실리콘(strained silicon)으로 형성할 수 있다.In another embodiment of the present invention, the sensor may be formed of stressed silicon or strained silicon.

도 9는 곡면 센서(12b)의 홑눈의 상세도이다. 일반적으로, 구형 표면을 형성하기 위해 사용하는 다각형이 많을수록 센서가 더욱 더 매끈한 곡면을 이루게 될 것이다.9 is a detailed view of a single eye of the curved surface sensor 12b. In general, the more polygons you use to form a spherical surface, the more smooth the sensor will be.

본 발명의 일실시예에 따르면, 웨이퍼 제작시에 각 카메라 센서가 바둑판 모양의 홑눈을 갖도록 웨이퍼를 제작한다. 센서 칩 웨이퍼의 전면 또는 후면중 한 면에는, 약간 휘어질 수는 있지만 해당 위치에서 홑눈을 지지할 수 있을 정도의 강도를 갖는 유연한 막(예: MYLAR™ 또는 KAPTON™)을 부착한다. 가는 선을 각 홑눈 사이의 실리콘 칩에 에칭으로 형성한다. 단, 유연한 막을 통과시키면 안된다. 다음에, 웨이퍼를 대략 구면 형상으로 가공한다. 각 홑눈에는 웨이퍼를 통과하는 관통홀을 형성하여 뒷면의 배선 하네스와 연결한다. 이 배선 하네스는 또한 각 홑눈을 기계적으로 지지하는 역할을 한다. According to an embodiment of the present invention, a wafer is manufactured so that each camera sensor has a checkerboard single eye at the time of wafer production. Attach a flexible membrane (eg MYLAR ™ or KAPTON ™) to one side of the front or back of the sensor chip wafer, which may be slightly bent, but strong enough to support the eye at that location. A thin line is formed by etching the silicon chip between each eye. However, the flexible membrane should not be passed through. Next, the wafer is processed into a substantially spherical shape. For each eye, a through hole is formed through the wafer and connected to the wiring harness on the back side. The wiring harness also serves to mechanically support each eye.

도 9a와 9b는 곡면 센서의 내부에 있는 홑눈(32b)과, 센서의 홑눈과 배선판을 연결하는 전기 연결을 도시하고 있다. Figs. 9A and 9B illustrate an electric connection connecting the ocular eye 32b inside the curved surface sensor and the ocular sight of the sensor to the wiring board.

도 10a와 10b는 센서의 홑눈에서 나오는 출력 신호를 받는 배선판(38)을 나타내고 있다.FIGS. 10A and 10B show a wiring board 38 receiving an output signal from a sensor eye.

도 11a와 11b는 다수의 초박형 실리콘 꽃잎 형태 세그먼트(42)를 구부려서 접합하여 형성한 대략적인 반구체(40)를 도시한다. 이들 세그먼트를 약간 구부려 결합함으로써 곡면 센서를 만든다.Figs. 11A and 11B show a rough hemisphere 40 formed by bending and bonding a plurality of ultra-thin silicon petal shape segments 42. Fig. Curved sensors are made by slightly bending these segments together.

도 12는 꽃잎 형태의 세그먼트(42)의 일실시예를 도시한다. 종래의 제조 방법을 이용하여 이러한 세그먼트를 만들 수 있다. 일실시예에 따르면, 이 세그먼트를 초박형 실리콘를 이용하여 만들면 세그먼트를 파손시키지 않고 어느 정도 구부릴 수 있다. 12 shows an embodiment of a petal-shaped segment 42. Fig. These segments can be made using conventional manufacturing methods. According to one embodiment, making this segment with ultra-thin silicon can bend to some extent without breaking the segment.

본 명세서 및 청구범위에서, 용어 "초박형"은 50~250 미크론의 범위를 의미한다. 또다른 실시예에 따르면, 픽셀 밀도가 각 세그먼트의 꼭지점 쪽으로 증가하며, 각 세그먼트의 기저부로 가면서 서서히 감소한다. 본 실시예는 픽셀을 생성하는 소프트웨어 또는 마스크에 대한 변경을 프로그래밍하여 실현할 수 있다.In the present specification and claims, the term "ultra-thin" means in the range of 50 to 250 microns. According to another embodiment, the pixel density increases toward the vertices of each segment and gradually decreases toward the bottom of each segment. This embodiment can be realized by programming a change to the software or the mask that creates the pixel.

도 13은 도 12에 도시한 세그먼트를 결합하거나 약간 중첩함으로써 형성되는 곡면 형상의 일실시예의 사시도이다. 센서는 오목한 면에 배치되고, 전기 연결은 볼록한 면에서 이루어진다. 이러한 비평면 표면을 만드는 데 사용하는 꽃잎 형태 세그먼트의 수는 임의의 적절한 개수이면 된다. 열이나 복사파를 이용하여 원하는 형태로 실리콘을 가공할 수 있다. "꽃잎"의 곡률은 특정 센서 설계에 따라 변경할 수 있다. 다른 실시예에 따르면, 중앙에 평면 센서를 두고, 끝 부분을 네모나게 깎은 "꽃잎"을 이 센서 주위에 둘러싸도록 설치할 수도 있다. 13 is a perspective view of one embodiment of a curved surface formed by joining or slightly overlapping the segments shown in Fig. The sensor is placed on the concave side and the electrical connection is made on the convex side. The number of petal shape segments used to create such a non-planar surface can be any suitable number. Silicon can be processed in any desired form using heat or radiation. The curvature of the "petals" can be changed according to the specific sensor design. According to another embodiment, a planar sensor may be placed in the center and a "petal" may be provided to surround the sensor.

도 14a, 14b, 14c는 곡면 센서 제작을 위한 다른 방법을 도시하고 있다. 도 14a는 기재(43b) 상에 있는 돔 형상의 제1심형(43a)을 도시하고 있다. 도 14b에서 열변형성 재료(43c)로 된 얇은 시트를 제1심형(43a) 위에 대고 누른다. 열변형성 재료(43c)의 중앙 영역은 도 14c에서와 같이 제1심형(43a)의 형상대로 변형되어 대략 반구형의 곡면 센서 기저부(43e)로 형성된다.Figures 14a, 14b and 14c illustrate another method for making a curved surface sensor. 14A shows a first core 43a in the form of a dome on the base material 43b. In Fig. 14B, a thin sheet made of the heat-deforming material 43c is pressed against the first core 43a. The central region of the heat-deforming material 43c is deformed into the shape of the first core 43a as shown in Fig. 14C and is formed as a substantially hemispherical curved sensor base 43e.

도 14d, 14e 및 14f는 곡면 센서의 기저부를 형성하기 위한 다른 방법을 도시하고 있다. 도 14d에서 제2 열변형성 시트(43f)를 제2심형(43G) 위에 올려놓는다. 진공 압력을 포트(43h)에 적용하여 제2심형(43g)으로 둘러싸인 공간부(43i) 내로 제2 열변형성 시트(43f)를 잡아당긴다. 도 14e는 본 과정의 다음 단계를 나타내는 것으로, 포트(43h)에 인가한 진공 압력에 의해서 제2심형의(43g)의 내부로 제2 열변형성 시트(43f)를 잡아당기고 있는 상태에서 히터(43j) 온도를 올려서 제2심형(43g)의 온도를 올린다. 도 14f에서 곡면 센서의 기저부로 사용할 대략 반구형 돔(43k)이 만들어진 것을 도시하고 있다. 도 14g는 기저부(43e 또는 43k)에 센서 픽셀(43l)을 형성한 후의 곡면 센서 기저부(43e 또는 43k)를 도시하고 있다.
14D, 14E and 14F show another method for forming the base of the curved surface sensor. In Fig. 14D, the second thermoforming sheet 43f is placed on the second core 43G. Vacuum pressure is applied to the port 43h and the second heat exchange sheet 43f is pulled into the space 43i surrounded by the second core 43g. 14E shows the next step of this process. In the state in which the second heat exchange sheet 43f is pulled into the second core 43g by the vacuum pressure applied to the port 43h, the heater 43j ) To increase the temperature of the second core 43g. 14F shows that an approximately hemispherical dome 43k to be used as the base of the curved surface sensor is made. Fig. 14G shows the curved surface sensor base 43e or 43k after the sensor pixel 431 is formed on the base 43e or 43k.

디지털 줌의 개선Improved digital zoom

도 15a는 광각 사진을 촬영하고 있는 카메라를 나타내고, 도 15b는 동일한 카메라로 실제 배율 사진을 촬영하고 있는 것을 나타내고, 도 15c는 망원 사진을 촬영하고 있는 것을 나타낸다. 각 도면에서 피사체는 동일한 상태를 유지하고 있다. 카메라의 뷰스크린(모니터)에, 도 15a에서는 넓은 전경이, 도 15b에서는 실물 크기의 전경이, 도 15c에서는 원거리 영상을 확대한 영상이 표시됨을 알 수 있다. 광학식 줌과 동일하게, 디지털 줌을 이용하여 사용자는 카메라 센서에서 처리하고 있는 영상을 정확하게 볼 수 있다. 15A shows a camera that photographs a wide angle photograph, FIG. 15B shows that an actual magnification photograph is taken with the same camera, and FIG. 15C shows that a telephoto photograph is taken. In each drawing, the subject remains in the same state. In the view screen (monitor) of the camera, a wide foreground is shown in Fig. 15A, a foreground in full scale in Fig. 15B, and an enlarged image in the long distance in Fig. 15C. Like the optical zoom, digital zoom allows the user to see exactly what image the camera sensor is processing.

디지털 줌은 소프트웨어로 작동된다. 카메라는 영상 중앙의 작은 일부만을 캡쳐하거나, 전체 장면을 캡쳐하거나, 이들 사이의 임의 배율로 피사체를 캡쳐한다. 전체 영상의 기록되고 있는 부분을 모니터를 통해서 볼 수 있다. 중앙부에서 상대적으로 높은 밀도로 모여 있는 픽셀을 사용하는 일실시예에서, 디지털적으로 줌아웃을 하면 소프트웨어가 모든 데이터를 사용할 수 있다. 망원 촬영 영상의 경우에는, 이 망원 촬영 영상이 작은 센서 부분으로 잘려 들어간다 하더라도, 중앙부의 면적당 픽셀 수가 더 많기 때문에 선명한 영상이 된다. 그 이유는 중앙부의 픽셀 밀도가 더 높기 때문이다.Digital zoom is software operated. The camera captures only a small portion of the center of the image, captures the entire scene, or captures the subject at any magnification between them. The recorded portion of the entire image can be viewed through the monitor. In one embodiment using pixels with a relatively high density at the center, digitally zooming out allows the software to use all of the data. In the case of a telephoto shot image, even if this telephoto shot image is cut into a small sensor portion, a clear image is obtained because the number of pixels per area is larger. This is because the pixel density at the center portion is higher.

다시 광각으로 줌을 되돌리면, 소프트웨어는 중앙부의 데이터를 대략 영상 가장자리의 픽셀 밀도로 압축한다. 이렇게 해도 광각 영상의 중앙부에 아주 많은 픽셀이 있기 때문에 광각 영상의 화질에는 영향을 주지 않는다. When you zoom back in at a wide angle, the software compresses the data in the center to the pixel density at the edge of the image. This does not affect the quality of the wide-angle image because there are so many pixels in the center of the wide-angle image.

그러나 압축을 하지 않으면, 중앙부 픽셀에서는 불필요하며 보이지도 않는 미세한 캡쳐 부분까지 표시하게 되어, 저장 용량과 처리 시간이 더 많이 필요하게 된다. 현재의 사진 관련 용어에 따르면, 망원 사진을 찍을 때에는 중앙부에서 "RAW"로 처리하거나 압축하지 않는 것으로, 반면에 광각 영상인 때에는 중앙부에서 "JPEG" 또는 기타 압축 알고리즘으로 처리하는 것으로 불러도 좋다. However, if compression is not performed, it is necessary to display a minute capturing portion which is unnecessary and invisible in the central pixel, which requires more storage capacity and processing time. According to the current photo-related terminology, when photographing a telephoto, it may be referred to as "RAW" in the center or not in compression, while in the case of a wide-angle image it may be referred to as "JPEG" or other compression algorithm in the center.

현재 디지털 줌은 업계의 전문가들이 경시하고 있다. 전통적인 센서로 캡쳐한 영상을 디지털 확대하면 들쭉날쭉한 선으로 쪼개지고 픽셀이 보이며 해상도가 나쁜 영상이 나오게 된다. 광학식 줌으로는 초점거리 고정 렌즈가 만들어낼 수 있는 선명한 영상을 결코 만들 수 없었고 지금도 만들 수 없다. 광학식 줌은 또한 느려서, 광학부를 통과하는 광량이 줄어들게 된다. The digital zoom is currently underestimated by industry experts. Digitally enlarged images captured by traditional sensors are split into jagged lines, resulting in pixels with poor resolution. With optical zoom, we could never create and still make clear images that a focal length fixed lens can produce. The optical zoom is also slow, so the amount of light passing through the optics is reduced.

본 발명의 실시예는 가볍고, 빠르고, 저렴하고, 좀더 신뢰성 있는 카메라를 제공한다. 일실시예에 따르면, 본 발명은 디지털 줌을 제공한다. 광학식 줌이 필요없기 때문에 근본적으로 구성요소 수가 적어지고 가벼운 렌즈의 설계가 가능해진다.Embodiments of the present invention provide a camera that is lightweight, fast, inexpensive, and more reliable. According to one embodiment, the present invention provides digital zoom. Since there is no need for an optical zoom, the number of components is fundamentally reduced and the design of a light lens becomes possible.

본 발명의 다양한 실시예에 따르면, 많은 픽셀이 센서의 중앙부에 집중되며, 센서의 가장자리에는 적게 배치된다. 중앙부와 가장자리 사이에서 다양한 밀도 분포를 형성할 수 있다. 이러한 특징에 의해 사용자는, 해상도를 높게 유지하면서도 중앙부만을 이용하여 망원 촬영으로 줌인할 수 있다.According to various embodiments of the present invention, many pixels are concentrated at the center of the sensor, and are located less at the edge of the sensor. Various density distributions can be formed between the center and the edge. With this feature, the user can zoom in on the telephoto image using only the central portion while maintaining a high resolution.

일실시예에 따르면, 넓은 시야의 영상을 볼 때에는, 바깥쪽의 픽셀 밀도값으로 해상도를 정규화하기 위하여 중앙부 픽셀을 "저장"하거나 모두 합산한다. According to one embodiment, when viewing a wide field of view, the central pixel is "stored" or summed to normalize the resolution to the outer pixel density value.

망원 모드로 영상을 볼 때에는, 중앙 픽셀의 높은 해상도를 활용하여, 렌즈나 카메라 설정을 전혀 바꾸지 않고도, 최대한 선명한 영상을 얻을 수 있게 된다. 디지털 줌 기능에 의해서 극단적인 망원 줌에 더하여 넓은 시야각을 얻을 수 있다. 이러한 특징은, 인간 눈의 망막처럼 디지털 센서가 평면이 아닌 곡면이라서 렌즈가 발휘할 수 있는 우수한 해상력, 콘트라스트, 속도, 색상 분해능에 의해서 가능해진다.When viewing an image in telephoto mode, the highest resolution of the central pixel can be used to obtain the maximum clear image without changing the lens or camera settings at all. With the digital zoom function, in addition to the extreme telephoto zoom, a wide viewing angle can be obtained. This feature is made possible by the excellent resolution, contrast, speed, and color resolution that the lens can exert, since the digital sensor is a non-planar surface like the retina of the human eye.

각막 및 수정체로 이루어진 평균적인 인간의 눈이 영상을 캡쳐하는데, 평균 2,500만 개의 간상세포와 600만 개의 원추세포를 사용한다. 이 정도의 영상 데이터는 희귀하고 값비싼 카메라 모델 또는 오늘날 상용되고 있는 두 가지 유형의 카메라가 캡처하는 영상 데이터보다 크다. 게다가 이러한 카메라는 평면 센서만을 사용하기 때문에 대체로 7~20개의 렌즈 요소를 사용해야만 한다. 이들 카메라는 인공 조명 없이 또는 ISO 증폭(이로써 영상의 미세한 부분이 상실됨) 없이는 황혼(해질녘) 영상을 캡쳐할 수 없다. 인간의 안구의 직경은 평균적으로 25mm이지만, 이러한 고급 카메라는 현재 대각선 길이가 최대 48mm인 센서를 사용한다. 훨씬 작은 눈을 가진 독수리 눈은 인간의 눈이 갖는 감각기관의 개수보다 8배나 더 많아서 곡면 센서 또는 망막이 발휘하는 광학적 잠재력을 다시금 보여주고 있다. The average human eye, made up of cornea and lens, captures an image, using an average of 25 million stem cells and 6 million cones. This amount of image data is larger than the rare and costly camera model or the image data captured by the two types of cameras that are in common use today. In addition, since these cameras use only planar sensors, they usually have to use 7 to 20 lens elements. These cameras can not capture images at dusk (dusk) without artificial illumination or ISO amplification (which results in the loss of a minute portion of the image). The human eye has an average diameter of 25 mm, but these advanced cameras now use sensors with diagonal lengths up to 48 mm. Eagle eyes with much smaller eyes are eight times more than the number of sensory organs of the human eye, showing again the optical potential of the curved sensor or retina.

본 발명의 실시예는 보다 더 신뢰적이고 저렴하며, 높은 성능을 제공한다. 교환 렌즈가 더 이상 필요치 않으며 거울 작동 및 연결 메커니즘이 필요없게 된다. 렌즈 설계가 단순해지며 부품수가 적어서 절감 효과를 배가할 수 있다. 왜냐하면, 곡면과 달리 평면 필름 및 센서는, 렌즈에서 오는 빛으로부터의 거리와 각도가 변화하는 곳에 위치하기 때문에 색수차가 일어나고 센서를 가로 질러 광량이 달라지기 때문이다. 이를 보상하기 위해 현재의 렌즈는, 지난 2세기에 걸쳐서 이러한 문제를 거의 완전하게 완화시켰지만, 큰 타협을 봐야 했다.Embodiments of the present invention are more reliable, less expensive, and provide higher performance. The interchangeable lens is no longer needed and mirroring and connection mechanisms are no longer necessary. The lens design is simplified and the number of parts is reduced, which can double the saving effect. Because, unlike curved surfaces, flat films and sensors are located where the distance and angle from the light coming from the lens change, so chromatic aberration occurs and the amount of light across the sensor changes. To compensate, current lenses have almost completely mitigated this problem over the last two centuries, but have had to compromise a great deal.

그 타협에는 속도, 해상력, 콘트라스트, 색상 분해능에 대한 제한이 포함되어 있다. 또한, 종래의 렌즈 설계시에는 다수의 부품, 비구면 렌즈, 특별한 재료, 각 표면에의 특수 코팅이 필요하다. 또한, 공기-유리 계면 및 유리-공기 계면이 더 많아지게 되어 광손실 및 광반사의 문제가 일어난다.
The compromise includes restrictions on speed, resolution, contrast, and color resolution. Further, in the conventional lens design, a plurality of parts, aspherical lenses, special materials, and special coatings on each surface are required. In addition, the air-glass interface and the glass-air interface become more and more, resulting in problems of light loss and light reflection.

픽셀 밀도의 가변Variable pixel density

본 발명의 일부 실시예에 따르면 디지털 확대 영상을 캡쳐하는 센서의 중앙부는 더 높은 영상 품질의 디지털 확대를 가능케 하기 위해 고밀도로 픽셀을 배치하고 있다.According to some embodiments of the present invention, a central portion of a sensor for capturing a digital enlarged image places pixels at high density in order to enable digital enlargement with higher image quality.

도 16과 17이 이러한 특징을 도시하고 있는데, 센서 중앙부에 픽셀(48)을 고밀도로 집중시킨다. 센서의 중앙부에 픽셀을 집중시킴으로써, 디지털 줌 기능시에 영상 선명도상의 손실이 없게 된다. 이러한 독특한 접근법은 평면 센서든 곡면 센서든 이득이 된다. 도 16에 나타낸 종래의 센서(46) 표면에는 대체로 균일하게 픽셀(48)이 배치되어 있다. 도 17은 본 발명에 따라 제작된 센서(50)를 나타내는 것으로, 센서의 중앙부에 픽셀(48)이 높은 밀도로 배치되어 있다.Figures 16 and 17 illustrate this feature, which concentrates the pixel 48 at the center of the sensor at a high density. By concentrating the pixels at the center of the sensor, there is no loss of image clarity in the digital zoom function. This unique approach benefits both planar and surface sensors. On the surface of the conventional sensor 46 shown in Fig. 16, pixels 48 are arranged substantially uniformly. 17 shows a sensor 50 manufactured according to the present invention, in which pixels 48 are arranged at a high density in the center of the sensor.

본 발명의 다른 실시예에 따르면, 카메라가 광각 사진을 촬영하고 있을 때에는 적절한 소프트웨어를 통해서 촬영되는 영상의 중앙부의 고밀도 데이터를 압축한다. 이에 의해 시스템의 처리시 및 기록시 요구 사항이 크게 줄어든다.
According to another embodiment of the present invention, when the camera is photographing a wide angle photograph, the high-density data at the center of the image to be captured is compressed through appropriate software. This greatly reduces the processing and recording requirements of the system.

렌즈 차양Lens canopy

본 발명의 다른 실시예는, 캡쳐되고 있는 영상이 광각인지 망원인지 여부를 감지할 수 있는 렌즈 차양을 포함하고 있다. 카메라가 광각 영상을 감지할 경우에는 차양이 오므라들어 차양이 영상 영역에 들어가지 않도록 한다. 카메라가 망원 영상을 촬영하는 것으로 감지하면, 차양이 펼쳐져서 영상 영역 이외의 곳에서 오는 외부광(빛 번짐이나 뿌연 영상의 원인이 됨)을 차단한다. Another embodiment of the present invention includes a lens shade that can detect whether a captured image is a wide angle or a telephoto. When the camera detects a wide-angle image, the awning shuts off so that the awning does not enter the image area. When the camera senses that the telephoto image is being captured, the awning is unfolded to block external light (which causes light blurring or blurred image) from outside the image area.

도 18과 19는 신축 가능한 렌즈 차양이 옵션으로 장착된 카메라를 도시하고 있다. 광각 촬영 시에는 렌즈 차양이 참조번호 52와 같이 오므러진다. 망원 촬영의 경우에는 렌즈 차양이 참조번호 54와 같이 펼쳐진다. 도 20과 21은 도 18, 19와 유사하나 평면 센서가 사용된 카메라를 도시하고 있으며, 렌즈 차양 기능을 별도로 독립적으로 적용가능함을 나타내고 있다.
Figures 18 and 19 show a camera with an optionally expandable lens canopy. At wide angle shooting, the lens shade is refracted as shown by reference numeral 52. In the case of telephoto shooting, the lens shade is unfolded as shown at reference numeral 54. 20 and 21 are similar to FIGS. 18 and 19, but show a camera using a planar sensor and show that the lens awning function can be independently applied separately.

먼지의 감소Reduction of dust

본 발명의 실시예는, 광학식 줌이 없고 렌즈 교환이 필요없기 때문에 종래 카메라에서 문제시되던 먼지를 줄여준다. 따라서 이동통신 장치에 내장되는 카메라를 밀폐할 수 있어서, 화질을 방해하는 먼지가 들어가지 못한다. 불활성 건조 기체(아르곤, 크세논, 크립톤 등)를 카메라 외함(14)에 있는 렌즈 속과 센서실 내에 밀봉함으로써 산화와 응축을 줄일 수 있다. 이러한 가스를 사용하는 경우, 카메라는 또한, 단열성이 좋아지고 온도 변화가 적어지는 이득을 얻을 수 있게 되고 카메라를 더 넓은 온도 범위에서 사용할 수 있게 된다.
Embodiments of the present invention reduce dust that has been a problem in conventional cameras because there is no optical zoom and no lens replacement is required. Therefore, the camera built in the mobile communication device can be sealed, and dusts that interfere with image quality can not enter. Oxidation and condensation can be reduced by sealing the inert dry gas (argon, xenon, krypton, etc.) in the lens chamber in the camera housing 14 and in the sensor chamber. When using these gases, the camera is also able to gain the benefits of better thermal insulation and less temperature variation, and the camera can be used over a wider temperature range.

광학 성능의 향상Improved optical performance

본 발명은 플래시 조명없이(또는 움직임을 위한 투광조명 없이) 감시하는 목적으로 혹은 빠른 동작을 촬영시에 유용한 초고속 렌즈와 함께 구현할 수 있다. 이것이 가능한 이유는 비평면 센서를 이용하기 때문이다. 그리고 평면 센서나 필름에 의한 제약이 사라지기 때문에, 실용적인 측면에서, f/0.7 또는 f/0.35 렌즈와 같이 더 빠른 범위가 가능해진다. The present invention can be implemented with an ultra-fast lens that is useful for monitoring without flash illumination (or without floodlight for movement) or for shooting fast action. This is possible because non-planar sensors are used. And because the constraints of the flat sensor or film are lost, from a practical standpoint, a faster range is possible, such as f / 0.7 or f / 0.35 lenses.

새로운 렌즈 구성이 가능해지기 때문에 이러한 모든 개선 사항이 실용화된다. 현재, 평면 필름과 센서용 렌즈의 설계시에는 빛이 더 멀리 지나가고 굴절이 더 많이 이루어지는 센서의 가장자리에서 발생하는 "무지개 효과" 또는 색수차를 보상해야 한다. 현재의 렌즈 및 센서 설계와, 이와 결합된 처리 알고리즘은 센서 가장자리에서 빛의 세기가 약한 것을 보상해줘야 한다. 이러한 보상에 의해서 성능향상의 가능성이 제한된다.All these improvements are put to practical use as new lens configurations become possible. Currently, when designing flat films and sensor lenses, it is necessary to compensate for the "rainbow effect" or chromatic aberration that occurs at the edge of the sensor where light travels farther and more refraction occurs. Current lens and sensor designs and their associated processing algorithms must compensate for weak light intensity at the edge of the sensor. This compensation limits the possibility of performance enhancement.

카메라 렌즈와 바디가 밀폐되어 있으므로, 부식 및 녹을 줄이기 위해 최종 조립시에 아르곤, 크세논, 크립톤 등같은 불활성 가스를 주입할 수 있다. 본 발명의 카메라는 더 넓은 온도 범위에서 작동할 수 있다. 이는 인공위성에 설치한 카메라 및 지상 모두에게 이득이 된다.
Since the camera lens and the body are sealed, an inert gas such as argon, xenon, krypton, etc. can be injected during final assembly to reduce corrosion and rust. The camera of the present invention can operate over a wider temperature range. This is beneficial to both the camera installed on the satellite and the ground.

센서의 회전 및 이동Rotation and movement of the sensor

도 22, 23은, 센서 조립을 더 쉽게 하기 위해, 간극(34)으로 구분되어 있는 센서 세그먼트(32c)를 갖는 다른 구조의 센서 배열체를 나타낸다. 본 실시예에 따르면, 정지 카메라에 이러한 센서 배열을 적용하여 짧은 시간 동안에 연속해서 두 장의 사진을 찍을 수 있다. Figures 22 and 23 illustrate sensor arrangements of other configurations having sensor segments 32c separated by gaps 34 to facilitate sensor assembly. According to the present embodiment, such a sensor arrangement can be applied to a still camera to take two pictures consecutively for a short time.

도면에서 센서 배열이 원래 위치(74)와 회전 위치(76)에 있는 것을 각각 도시하였다. 첫 번째 사진 촬영시와 두 번째 사진 촬영시 사이에서 센서 배열체의 위치가 바뀐다. 첫 번째 노출시에 누락된 영상을 소프트웨어로 인식하고, 이 누락된 영상 데이터를 두 번째 노출시에 취득하여 다시 첫 번째 영상에 끼워 넣는다(stitch). 센서의 움직임 또는 방향의 변경은 센서 홑눈의 패턴에 따라 달라질 수 있다.It is shown in the drawing that the sensor arrangement is in the original position 74 and the rotational position 76, respectively. The position of the sensor arrangement changes between the first photo shoot and the second photo shoot. The missing image is recognized as software at the first exposure, and the missing image data is acquired at the second exposure and then stitches the first image again. The movement or direction of the sensor may vary depending on the pattern of the sensor eye.

동영상 카메라도 동일하게 동작할 수 있다. 아니면, 다른 실시예로서, 단순히 센서를 움직여서 이전 위치의 데이터를 이용하여 새로운 영상 만을 캡쳐함으로써, 계속되는 후속 처리과정에서 간극을 채울 수 있다. 이 방법은 배열된 센서 사이에 간극이 있는, 움직이는 센서를 사용하여 영상을 캡쳐하는 것이다. 이 방법에 의하면, 세그먼트 사이의 공간이 덜 중요하게 되기 때문에 제작이 훨씬 쉬어진다. 일례를 들어, 중앙의 사각형 센서를 8개의 사각형 센서로 한 줄 둘러싸고, 여기를 다시 16개의 사각형 센서로 한 줄 둘러싼다. 센서는 원형 광학 영상에 맞도록 그 크기를 정하고, 각 줄에는 약간 더 곡률을 주어서 전체적으로 비평면 센서를 만든다. The video camera can operate in the same manner. Alternatively, as another embodiment, the gap can be filled in subsequent subsequent processing by simply moving the sensor and capturing only the new image using the data at the previous location. This method captures images using a moving sensor with gaps between the arrayed sensors. With this method, the space between the segments becomes less important, making fabrication much easier. For example, the center square sensor is surrounded by eight square sensors, and this is again surrounded by 16 square sensors. The sensor is dimensioned to fit the circular optical image, and each row is given a slightly more curvature to create a non-planar sensor as a whole.

사용시에는 우선, 카메라로 하나의 사진을 찍는다. 그 다음에 즉시 센서를 약간 회전시키거나 그 위치를 이동하여 두 번째 영상을 바로 캡쳐한다. 소프트웨어에 의해서 간극이 있는 위치를 알아내고, 두 번째 사진으로부터 새로운 데이터를 첫 번째 사진에 끼워 넣는다(stitch). 다른 방식으로서, 센서의 배열 패턴에 따라, 센서가 2차원 공간에서 선형적으로 이동할 수도 있고, 곡면에 상응하도록 3차원에서 원호를 따라 이동하는 것도 가능하다. In use, first take a picture with the camera. Immediately after that, immediately rotate the sensor slightly or move its position to capture the second image directly. The software identifies the location of the gap, and inserts the new data from the second photo into the first photo (stitch). Alternatively, depending on the arrangement pattern of the sensor, the sensor may move linearly in the two-dimensional space or move along the arc in three dimensions corresponding to the curved surface.

이 개념에 의해 복잡한 센서를 보다 더 쉽게 제작할 수 있다. 이 경우에, 복잡한 센서는 여러 개의 작은 센서로 구성된 대형 센서이다. 이러한 복잡한 센서를 이용하여 초점 맞는 영상을 캡쳐하면 완전한 영상을 만드는 데 필수적인 데이터가 각 센서 사이의 간극에서 누락된다. 간극을 작게 하면 이 문제를 좀더 줄일 수 있지만, 작은 간극을 갖는 센서의 조립이 더 어려워진다. 간극이 크면 센서 조립이 더 쉽고 경제적이지만, 완전하지 못한 영상이 만들어지게 된다.This concept makes it easier to build complex sensors. In this case, the complex sensor is a large sensor composed of several small sensors. When such a complicated sensor is used to capture a focused image, data necessary for a complete image is missing from the gap between the sensors. Reducing the gap can further reduce this problem, but makes it more difficult to assemble the sensor with a small gap. The larger the gap, the easier and more economical to assemble the sensor, but the incomplete image is created.

그러나 본 방법에 따르면, 첫 번째 영상 촬영 후에 센서를 이동하여 재빠르게 두 번째 영상을 촬영함으로써, 상기 문제를 해결한다. 이로써 완전한 영상을 얻을 수 있으며, 소프트웨어를 이용하여, 간극에서 온 두 번째 영상에 의해 취합된 데이터를 분리하여 첫 번째 데이터에 접합시킨다.However, according to the present method, the problem is solved by moving the sensor after the first image capturing and rapidly capturing the second image. In this way, a complete image can be obtained, and the data collected by the second image coming from the gap is separated using software, and the data is spliced to the first data.

신속하게 연속 노출하는 동안에 영상을 약간 이동시키기 위한 렌즈 요소 또는 반사기를 이동시키거나 기울임으로써 동일한 결과를 얻을 수 있다. 본 실시예에 따르면, 본 발명의 카메라에서는 공지의 "영상 안정화(image stabilization)" 기법을 이용하는데, 단, 안정화 기능을 근본적으로 변경하여 적용한다. 본 카메라에는 첫 번째와 두 번째 영상 모두에서 영상 안정화를 활용할 수 있다. 이 방법은 노출 동안의 카메라 움직임의 영향을 중화시킨다. 이러한 움직임은 손 떨림이나 엔진 진동에서 올 수 있다. 그러나 본 실시예에 따르면, 첫 번째 노출 후에 영상 안정화를 반대로 적용하여 "영상 불안정화" 또는 "의도적 지터(jitter)"를 실시함으로써 두 번째 노출 동안에 센서 상의 영상을 약간 이동시킨다. 제 위치에 고정되어 있는 센서와 함께 이 방법을 적용할 경우에도 역시, 두 번째 노출 시에 영상이 이동하게 됨으로써, 첫 번째 노출에서 홑눈 사이의 간극들을 검출할 수 있게 되고 누락된 영상을 최종 영상 속으로 기록 및 결합할 수 있게 된다. The same result can be obtained by moving or tilting the lens element or reflector to slightly move the image during rapid exposures. According to the present embodiment, in the camera of the present invention, the known "image stabilization" technique is used, but the stabilization function is fundamentally changed and applied. This camera can utilize image stabilization in both the first and second images. This method neutralizes the effects of camera movement during exposure. These movements can come from hand tremor or engine vibration. However, according to the present embodiment, image stabilization is reversed after the first exposure to effect "image destabilization" or "intentional jitter" to slightly move the image on the sensor during the second exposure. When this method is applied with the sensor fixed at the position, the image is moved at the second exposure, so that the gaps between the eyes at the first exposure can be detected, and the missing image can be detected in the final image As shown in FIG.

도 23에 표시된 예에서는 센서가 앞뒤로 회전한다. 다른 실시예에 따르면, 센서를 옆으로 혹은 대각선으로 이동시킬 수 있다. 이 센서는 또한 전체 원 중 일부 원호만큼 회전할 수 있다. 또다른 실시예에 따르면, 소프트웨어가 데이터를 결합하여 완전한 영상을 만드는 동안에, 센서를 지속적으로 회전시킬 수도 있다.In the example shown in Fig. 23, the sensor rotates back and forth. According to another embodiment, the sensor can be moved laterally or diagonally. This sensor can also rotate by some of the circles of the whole circle. According to another embodiment, the software may continuously rotate the sensor while combining the data to produce a complete image.

도 24a와 24b는 또한 제2의 센서군을 도시한다. 센서는 처음에 원래 위치(78)에 있는 것으로 도시되어 있고, 다음에 이동된 위치(80)에 있는 것으로 도시되어 있다.
24A and 24B also show a second group of sensors. The sensor is initially shown as being in its original position 78, and is shown as being in the next moved position 80.

센서 그리드 패턴Sensor grid pattern

도 25a, 25b, 25c, 25d는 센서(82, 84, 86, 88)의 네 가지 다른 격자 패턴에 대한 네 가지 다른 실시예를 나타내고 있다. 홑눈(32e 32f, 32g 및 32h) 사이의 간극(34)을 이용하여 곡면 센서의 제조가 가능하다.
25a, 25b, 25c and 25d illustrate four different embodiments of the four different grid patterns of the sensors 82, 84, 86 and 88. FIG. It is possible to manufacture a curved surface sensor by using the gap 34 between the eyelashes 32e 32f, 32g and 32h.

센서의 전기적 연결Electrical connection of sensor

도 26, 27, 28은 센서에 연결하는 전기 연결선의 다른 실시예들을 나타낸다. Figures 26, 27 and 28 show other embodiments of the electrical connection lines connecting to the sensors.

도 26은 센서(90)에 대략 나선형의 전기 연결 도체(92)가 적용된 것을 표시한다. 전기 도체는 참조 번호 94로 지정된 지점에서 센서에 연결되고, 참조 번호 96으로 지정된 지점에서 신호 처리기에 연결된다. 이 실시예는 도 23에 나타낸 것과 같이, 첫 번째와 두 번째 노출 사이에 센서가 회전하는 경우에 사용할 수 있는 전기 연결 방식이다. 이 배선 방식은 도체(92)의 구부러짐을 줄여서 수명을 늘려준다. 신호 처리기는 센서 조립체에 내장되어 있다.Fig. 26 shows that the sensor 90 is applied with a substantially helical electrical connecting conductor 92. Fig. The electrical conductor is connected to the sensor at a location designated by reference numeral 94 and to the signal processor at a location designated by reference numeral 96. This embodiment is an electrical connection scheme that can be used when the sensor rotates between the first and second exposures, as shown in Fig. In this wiring method, the bending of the conductor 92 is reduced, thereby extending the service life. The signal processor is embedded in the sensor assembly.

도 27은 "아코디언" 형태의 도체(100)가 연결된 센서(102)의 뒷면을 보여주는데, A 지점에서 센서와 연결되고 B 지점에서 신호 처리기와 연결된다. 이 실시예는, 도 24에서와 같이 첫 번째와 두 번째 노출 동안에 센서가 회전하지 않고 이동하는 경우에 사용가능하다. 이러한 연결 방식에 의해, 코일 배선처럼, 앞뒤로의 20 센서 연결에도 견딜 수 있다. 27 shows the back side of the sensor 102 to which the conductor 100 of the "accordion" type is connected, which is connected to the sensor at point A and to the signal processor at point B. This embodiment is usable when the sensor moves without rotation during the first and second exposures as in Fig. With this type of connection, it can withstand 20 sensor connections back and forth like coil wiring.

도 28은 대략 방사상으로 도체가 배선된 센서(114)의 뒷면을 나타낸다. 각 도체는 링에 접촉되어 있는 브러시(B)에 연결된다. 브러시가 링 위에 접촉한 상태에서 움직이면서 회전 센서의 출력을 취합하여 중앙점 C에서 처리기로 전송한다. 본 실시예는 노출 중에 센서가 회전하는 경우에 사용할 수 있다. 또한, 이 연결 방식은 다른 실시예, 가령, 계속해서 회전하는 센서에도 적용 가능하다. 이러한 실시예에 따르면, 센서가 한 방향으로 계속해서 회전하고, 소프트웨어가 간극을 검출하여 첫 번째 노출에서 누락된 데이터를 채워준다.
28 shows the rear surface of the sensor 114 with a conductor radially wired. Each conductor is connected to a brush B which is in contact with the ring. As the brush moves in contact with the ring, the output of the rotation sensor is collected and transmitted from the center point C to the processor. This embodiment can be used when the sensor rotates during exposure. This connection scheme is also applicable to other embodiments, such as sensors that continue to rotate. According to this embodiment, the sensor continues to rotate in one direction, and the software detects the gap to fill the missing data in the first exposure.

무선 연결Wireless connection

도 29는 무선 연결 장치(118)의 블록 다이어그램이다. 무선 수신기(122)로 신호를 보내는 송신기(120)에 센서(12)가 연결된다. 수신기는 신호 처리기(124)에 연결된다.
29 is a block diagram of the wireless connection device 118. As shown in FIG. A sensor (12) is connected to a transmitter (120) that sends a signal to a wireless receiver (122). The receiver is connected to the signal processor 124.

본 발명에서 얻게 되는 이득을 요약하면 다음과 같다. 그러나 이들에 국한되는 것은 아니다.The gains obtained in the present invention are summarized as follows. However, it is not limited to these.

고해상도 디지털 줌 기능High resolution digital zoom function

빠르다fast

가벼다Light

저렴하다It is cheaper

긴 초점 범위Long focus range

신뢰성 우수High reliability

낮은 색수차Low chromatic aberration

보다 정밀한 픽셀 해상도More precise pixel resolution

플래시 또는 투광 조명의 불필요No flash or floodlight required

광각에서 망원까지의 줌 기능
Zoom from wide angle to telephoto

III. 추가 실시예
III. Additional Embodiment

본 발명에 따른 많은 바람직한 특징을 갖는, 카메라(150)를 포함하는 이동통신 장치에 대해서 이제 도 30과 31을 참조하여 설명한다.A mobile communication device including a camera 150, having many desirable features in accordance with the present invention, will now be described with reference to Figs. 30 and 31. Fig.

배터리, 셔터 릴리즈, 조리개 모니터, 모니터 화면 등과 같은 기존의 기능에 대해서는 명확하므로 설명을 생략한다.Existing functions such as battery, shutter release, iris monitor, monitor screen, etc. are obvious and will not be described here.

카메라는 대략 곡면형 센서(160)와 렌즈(156)를 수용하고 있는 밀폐된 외함(154)을 포함하고 있다. 외함(154)에는 아르곤, 크세논, 크립톤으로 채워진다. 센서(160)의 전면을 도 31에 개략적으로 표시하고 있는데, 다수의 평면 사각형 픽셀 요소(즉, 홑눈)(162)가 서로 상대적으로 기울어져 전반적으로 곡면을 이루고 있다. 픽셀 요소(162) 사이에 생기는 대체로 삼각형 간극(164) 영역을 줄이기 위하여 중앙부 사각형(170)을 가장 크게 하고, 이를 둘러싸고 있는 8개의 인접 사각형은 그보다 약간 작게 만들어서 그 외곽 모서리들이 서로 닿거나 거의 닿도록 한다. 마찬가지로, 이들을 둘러싸고 있는 16개의 인접 사각형(176)은 그 내측 사각형(172)보다 약간 더 작게 만든다.The camera includes an enclosed enclosure 154 that receives approximately a curved sensor 160 and a lens 156. The enclosure 154 is filled with argon, xenon, and krypton. The front side of the sensor 160 is schematically shown in Fig. 31, in which a plurality of planar square pixel elements (i.e., a single eye) 162 are inclined relative to one another to form a generally curved surface. In order to reduce the generally triangular gap 164 area between pixel elements 162, the central quadrilateral 170 is maximized and the eight adjacent quadrangles surrounding it are made slightly smaller so that their outer corners can touch or nearly touch each other. do. Similarly, the sixteen adjacent rectangles 176 surrounding them are made slightly smaller than their inner rectangles 172.

중앙부 사각형(170)은 가장 높은 픽셀 밀도를 갖는데, 이 사각형 홑눈을 단독으로 사용하여 망원 영상을 캡쳐한다. 안쪽에서 둘러싸고 있는 사각형(172)은 중간 밀도로 픽셀 배치하여, 실제 배율 사진의 화질을 제공한다. The center rectangle 170 has the highest pixel density, which captures the telephoto image using the square eye alone. The enclosing rectangle 172 is pixel-laid at a medium density to provide the image quality of the actual magnification photograph.

바깥쪽을 둘러싸고 있는 사각형(176)은 최소 밀도의 픽셀을 갖는다. 본 실시예에서 픽셀 요소(162) 사이의 간극(164)은 전기 연결선이 지나는 통로로 사용한다. 카메라(150)는 또한, 렌즈 차양 신축부(180)를 추가로 포함하는데, 여기에는, 내측에 있는 고정된 차양부재(182), 제1 가동 차양부재(184), 방사상으로 최외곽에 있는 제2 가동 차양부재(186)가 포함된다. 도 30과 같이, 사용자가 광각 사진을 촬영하면 차양부재가 오므러진다. 이 경우에는 극도의 광각시에 들어오는 미광(迷光)만이 차단된다. 이 모드에서는 데이터 처리 시간 및 기록 요구조건을 줄이기 위해, 곡면 센서의 중앙 부분(170, 172)의 고밀도 픽셀 데이터를, 센서의 가장자리 홑눈(176)에서의 낮은 픽셀 밀도와 동일하게 하도록 전체 영상 영역에 걸쳐서 정규화할 수 있다.The rectangle 176 surrounding the outside has a minimum density of pixels. The gap 164 between the pixel elements 162 in this embodiment is used as the passage through which the electrical connection line passes. The camera 150 further includes a lens canopy stretchable and contractible portion 180 that includes a fixed inner awning member 182, a first movable awning member 184, a radially outermost member 182, 2 movable shingling member 186 are included. As shown in Fig. 30, when the user takes a wide angle photograph, the awning member is wrinkled. In this case, only stray light coming in at an extremely wide angle is blocked. In this mode, in order to reduce the data processing time and the recording requirements, the high density pixel data of the central portions 170 and 172 of the curved surface sensor is applied to the entire image area so as to be equal to the low pixel density at the sensor eyepiece 176 Can be normalized over.

실제 배율 사진의 경우에는, 차양부재(184)가 펼쳐져서 피사체 영역의 외부로부터 오는 미광을 차단한다. 이 모드에서는 곡면 센서의 데이터 홑눈(172)의 일부를 압축한다. 처리 시간 및 기록 요구조건을 줄이기 위해 픽셀 밀도가 높은 가장 중심 지역(170)의 데이터를 전체 영상 영역에 걸쳐서 정규화할 수 있다. 사용자가 디지털 줌을 이용하여 망원 사진을 찍게 되면, 차양부재(186)가 펼쳐진다. 이 모드에서는 곡면 센서(160)의 중앙부(170)만을 사용한다. 이 센서 중앙부에만 높은 밀도로 픽셀이 덮여 있기 때문에, 영상은 선명하게 될 것이다.In the case of an actual magnification photograph, the awning member 184 is unfolded to block stray light coming from the outside of the subject area. In this mode, a part of the data eye 172 of the curved surface sensor is compressed. Data of the pixel-dense center-of-gravity area 170 may be normalized over the entire image area to reduce processing time and recording requirements. When the user takes a telephoto image using the digital zoom, the shingling member 186 is unfolded. In this mode, only the central portion 170 of the curved surface sensor 160 is used. Since the center of this sensor is covered with pixels at a high density, the image will be sharp.

일반적으로 사진 작가가 주밍(확대)을 하는 것은 프레임을 채우기 위해서 그리고 주위의 산만한 부분을 잘라내기 위해서이다. 렌즈 차양은 넓은 범위의 설정치에 대해서 작동하며, 가장 넓은 시각과 가장 좁은 망원 위치 사이에서 무한 수의 위치에 위치할 수 있다. 다른 실시예에서는 한 개의 차양부재를 사용한다. 또 다른 실시예에서는 두 개 이상의 차양부재가 사용될 수 있다. 다수의 차양부재를 사용하는 실시예들에서, 망원촬영 요소는 타 요소 내에 설치된다.In general, the photographer zooms in to fill the frame and cut out the distracting parts of the surroundings. The lens shade operates on a wide range of setpoints and can be positioned at an infinite number of positions between the widest viewing angle and the narrowest telephoto position. In another embodiment, one shade member is used. In yet another embodiment, two or more awning members may be used. In embodiments using multiple shade elements, the telephoto imaging element is installed in the other element.

동작을 보면, 센서 범위 내에 있는 모든 간극을 채우기 위해, 즉, 한 번 노출 시에 간극(164)에서 누락되는 픽셀 데이터를 얻기 위해 카메라(150)는 두 번의 노출을 수행한다. 이를 위해 카메라는 다음과 같은 두 가지 방법 중 하나를 실행한다. 첫째, 이전에 설명한 것과 같이, 센서를 이동시킨 후에 연이어서 신속하게 두 번째 노출을 하는 방법이다. 처리 소프트웨어에 의해 영상 센서의 간극으로 인해 누락된 데이터를 첫 번째 노출 시에 검출하고, 이 누락 데이터를 첫 번째 영상에 끼워 넣는다. 이로써 완전한 영상이 생성된다. 동영상의 경우에는 이러한 처리를 연속으로 실행하여, 세번째 노출 시에 그 이전 또는 후속 노출 중 하나를 선택하도록 하여 완전한 영상을 생성한다. In operation, the camera 150 performs two exposures to fill all gaps in the sensor range, i.e., to obtain pixel data missing in the gap 164 at one exposure. To do this, the camera does one of two things: First, as described previously, it is a method to quickly perform a second exposure after moving the sensor. The missing data due to the gap of the image sensor by the processing software is detected at the first exposure, and this missing data is embedded in the first image. This produces a complete image. In the case of a moving image, such processing is executed in succession, and at the third exposure, one of the previous or subsequent exposures is selected to generate a complete image.

둘째, 현재 업계에 공지되어 있는 "영상 안정화"를 이용하여 표준 프로세스를 근본적으로 변경하는 방법이다. 첫 번째 노출 시에 영상을 안정화시킨다. 일단 기록이 되면, 이 "영상 안정화"를 멈추고 영상을 안정화 장치에서 이동시키고, 다시 안정된 상태에서 두 번째 영상을 촬영한다. 이 방법에서는 센서를 전혀 움직이지 않고도 완전한 영상을 다시 만들 수 있다. 도 30에 표시된 점선은 초점 처리의 일실시예에서의 렌즈의 2차원적 이동을 나타내는 것이다. 의도적 지터링(jittering)에 관한 본 발명의 다른 실시예에 따르면, 렌즈가 앞뒤로 이동하지는 않지만, 대신에 센서에 맺히는 영상의 위치를 변경하기 위하여 기울어여진다. Second, it is a method to fundamentally change the standard process using "image stabilization" which is now known in the industry. Stabilizes the image at the first exposure. Once recorded, this "image stabilization" is stopped, the image is moved in the stabilizer, and the second image is taken again in a stable state. In this way, the complete image can be reconstructed without moving the sensor at all. The dotted line shown in Fig. 30 represents the two-dimensional movement of the lens in one embodiment of the focus process. According to another embodiment of the present invention for intentional jittering, the lens does not move back and forth, but instead tilts to change the position of the image that is projected onto the sensor.

위에서 설명한 카메라(150)에는 많은 장점이 있다. 아르곤 등의 가스가 채워진 외함(154)을 밀폐함으로써 부품의 산화가 방지되고 광범위한 온도 범위에 걸쳐서 동작상의 단열 효과를 얻을 수 있다.The camera 150 described above has many advantages. By sealing the gas-filled enclosure 154 such as argon, oxidation of the components is prevented and thermal insulation effects over the wide temperature range can be obtained.

높은 픽셀 밀도의 중앙부 사각형(170)의 가격이 상대적으로 비싸지만, 이것은 비교적 크기가 작고 한 개만 필요하기 때문에 전체 비용은 절감된다. 별도의 부속 렌즈 없이도 양호한 디지털 줌을 구현할 수 있다는 점에서 비용 절감 효과가 크다(부속 렌즈의 가격은 센서의 가격보다 훨씬 더 비싸며, 크고 무겁고 느리다). 바깥쪽을 둘러싸고 있는 센서(176)는 크기가 가장 작으며 픽셀 수가 적기 때문에 상대적으로 저렴하다. 따라서 사각형 요소의 전체 조립체를 볼 때, 센서의 총 비용은, 넓은 원근 범위에 걸쳐서 양호한 성능을 얻을 수 있다는 점을 고려할 때 낮은 것이다.Although the price of the central square 170 of high pixel density is relatively expensive, this is relatively small and requires only one, thus reducing the overall cost. It is cost-effective to implement good digital zoom without a separate accessory lens (the price of the lens is much more expensive than the price of the sensor, large, heavy and slow). The sensor 176 surrounding the outside is relatively inexpensive because it is the smallest in size and has a small number of pixels. Thus, when looking at the entire assembly of square elements, the total cost of the sensor is low considering that good performance can be achieved over a wide perspective range.

카메라(150)를 다양하게 변형할 수 있다. 예를 들어, 렌즈(156)를 모놀리틱이 아닌 다수의 부품으로 구성할 수 있다. 외함(154)을 다른 불활성 가스 또는 무반응 가스(질소, 크립톤, 크세논, 아르곤 등)로 밀봉하거나, 전혀 밀봉하지 않을 수도 있다. 픽셀 또는 홑눈(170, 172, 176)은 직사각형, 육각형, 또는 기타 적절한 형상일 수 있다. 정사각형과 직사각형의 생산이 가장 용이할 것이다. 이상에서 중앙부 픽셀과 이를 2층으로 둘러싸는 사각형 픽셀에 대해서 설명하였지만, 둘러싸는 층수는 임의로, 원하는 층수로 구현할 수 있다. The camera 150 can be modified in various ways. For example, the lens 156 can be composed of a number of parts other than monolithic. The enclosure 154 may be sealed with another inert or non-reactive gas (nitrogen, krypton, xenon, argon, etc.), or may not be sealed at all. The pixel or eyelashes 170, 172, 176 may be rectangular, hexagonal, or other suitable shape. The production of squares and rectangles will be easiest. Although the center pixel and the rectangular pixel surrounding the two-layer pixel are described above, the number of the surrounding layers can be arbitrarily set to a desired number of layers.

도 32는 도 30과 31에 나타낸 카메라(150)의 많은 특징을 갖는 카메라(250)의 블록 다이어그램이다. 비평면 센서(260)는 높은 픽셀 밀도를 갖는 중앙 영역(270)과 낮은 픽셀 밀도를 갖는 홑눈으로 이루어진 주변 영역(272)으로 구성된다. 셔터 제어기(274)도 도시되어 있다. 렌즈(256)의 초점/안정화 작동 메커니즘(290)과 셔터 제어기(274)와 렌즈 차양 작동기(280)는 영상 시퀀스 처리기(200)에 의해 제어된다.32 is a block diagram of a camera 250 having many features of the camera 150 shown in Figs. The non-planar sensor 260 consists of a central region 270 with a high pixel density and a peripheral region 272 with a single pixel having a low pixel density. The shutter controller 274 is also shown. The focus / stabilization actuation mechanism 290 of the lens 256 and the shutter controller 274 and the lens canopy actuator 280 are controlled by the image sequence processor 200.

홑눈(270, 272)에 있는 픽셀로부터의 신호는 원시 센서 캡쳐 장치(202)에 입력된다. 이 장치(202)의 출력은 자동 초점, 자동 노출/게인, 자동 화이트 밸런스 작용을 하는 장치(204)에 연결되어 있다. 이 장치(202)의 또다른 출력은 픽셀 밀도 정규화 장치(206)에 입력되며, 그 출력은 영상처리 엔진(208)으로 입력된다. 엔진(208)의 제1출력은 디스플레이/LCD 컨트롤러(210)에 입력되고, 엔진(208)의 제2출력은 압축 및 저장 컨트롤러(212)에 입력된다. 본 발명의 다양한 실시예들의 특징과 변형은 원하는대로 결합 또는 대체할 수 있다.
Signals from the pixels in the eyes 270 and 272 are input to the raw sensor capture device 202. The output of this device 202 is coupled to a device 204 for autofocus, automatic exposure / gain, and automatic white balance. Another output of the device 202 is input to the pixel density normalization device 206, and the output is input to the image processing engine 208. The first output of the engine 208 is input to the display / LCD controller 210 and the second output of the engine 208 is input to the compression and storage controller 212. Features and variations of various embodiments of the invention may be combined or substituted as desired.

IV. 곡면 센서 카메라를 갖는 이동통신 장치
IV. Mobile communication device having a curved surface sensor camera

도 33, 34, 35, 36은 이동통신 장치에 곡면 센서 카메라를 결합한, 본 발명의 일실시예를 나타낸다. 이동통신 장치로는 휴대전화, 랩톱, 노트북 또는 넷북 컴퓨터, 또는 기타 통신, 기록, 또는 계산을 위한 적절한 장치 또는 수단을 들 수 있다.Figures 33, 34, 35 and 36 illustrate an embodiment of the present invention in which a mobile communication device incorporates a curved surface sensor camera. The mobile communication device may be a mobile phone, laptop, notebook or netbook computer, or other suitable device or means for communication, recording, or computation.

도 33은 이러한 장치의 특정 실시예를 나타내는 측면도로서, 앞면(305a)과 뒷면(305b) 모두에서 정지 사진과 비디오 영상을 촬영하는 진화된 형태의 카메라(150)를 포함한다. 외함(302)에 마이크로 컨트롤러(304), 디스플레이 화면(306), 터치스크린 인터페이스(308a), 사용자 인터페이스(308b)가 내장된다. 전원 및/또는 데이터 단자(310)와 마이크가 외함(302)의 하단에 위치하고 있다. 볼륨 및/또는 음소거 조작 스위치(318)가 외함(302)의 얇은 측면 중 하나에 설치된다. 스피커(314)와 안테나(315)가 외함(302)의 위쪽 부분 안쪽에 설치되어 있다.33 is a side view illustrating a specific embodiment of such an apparatus, including an advanced form of camera 150 that captures still and video images on both the front face 305a and the back face 305b. A microcontroller 304, a display screen 306, a touch screen interface 308a, and a user interface 308b are built in the enclosure 302. [ The power and / or data terminal 310 and the microphone are located at the lower end of the enclosure 302. A volume and / or mute operation switch 318 is provided on one of the thin sides of the enclosure 302. A speaker 314 and an antenna 315 are provided inside the upper portion of the enclosure 302. [

도 34와 35는 다른 실시예(300a)의 사시도(330, 334)를 나타낸다. 도 36과 37은 또다른 실시예(300b)의 사시도(338, 340)를 나타낸다.
Figures 34 and 35 show perspective views 330 and 334 of another embodiment 300a. Figures 36 and 37 show perspective views 338 and 340 of yet another embodiment 300b.

V. 센서가 기존에는 기록할 수 없는 세밀한 영상을 캡쳐하기 위한 방법
V. A method for capturing detailed images that the sensor can not record

이 다른 방법은 여러번 신속하게 노출하되, 각 노출별로 정밀하게 약간씩 이동한다. 예로서, 동일한 장면을 네 번 촬영하되, 각 노출마다 각각 네 방향으로 영상을 ½ 픽셀씩 이동한다.(실제로는, 사용하는 영상의 이동량을 변화시켜서 3, 4, 5회 이상의 노출을 적용해도 좋다.)This alternate method exposes several times quickly, but moves slightly with each exposure. As an example, the same scene is photographed four times, and each image is shifted by four pixels in each of four directions (actually, exposure of 3, 4, or 5 times or more may be applied by changing the amount of movement of the image to be used .)

예를 들어, 도 38의 나무는 카메라에서 멀리 떨어져 있고, 수평으로 4개 픽셀을 차지하고(픽셀과 픽셀 사이에는 공백이 있음), 수직으로는 공백을 포함하여 5개 픽셀을 차지하고 있다.(현재 출시되어 있는 카메라는 25만 픽셀의 해상도를 갖는바, 이 나무 영상은 영상 영역의 백만분의 일보다 작아서 극도로 확대하지 않는 한 육안으로는 구별할 수 없을 것이다.)For example, the tree in FIG. 38 is far from the camera, occupies four pixels horizontally (there is a gap between pixels and pixels), and vertically covers five pixels, including white space. The camera has a resolution of 250,000 pixels, which is less than one millionth of the image area and will not be visible to the naked eye unless it is extremely enlarged.

도 39는 평면이든 곡면이든 특정 카메라 센서의 일부분을 나타낸다. 이하의 설명에서 수직열은 문자로, 수평열은 숫자로 번호를 매겼다. 검은 부분은 픽셀 사이의 공백을 나타낸다.Figure 39 shows a portion of a particular camera sensor, whether planar or curved. In the following description, the vertical columns are numbered by letters and the horizontal columns by numbers. The black portion represents the space between pixels.

도 40은 처음 노출시에 나무 영상이 픽셀 상에 어떻게 위치하는지를 나타내고 있다. 나무 영상이 픽셀 C2, C3, D3, C4, D4, B5, C5, D5에만 "다른 곳에서보다 더 많이 덮여 있음"을 주목해야 한다. 이들 픽셀을 해당 영상으로서 기록한다.Figure 40 shows how a tree image is located on a pixel at the time of first exposure. Note that the tree image is "covered more than anywhere else" in pixels C2, C3, D3, C4, D4, B5, C5, and D5 only. These pixels are recorded as corresponding images.

도 41은 노출을 1회 했을 때의 트리의 결과 영상을 나타낸다. 검게 된 픽셀들이 첫 번째 영상이 될 것이다.41 shows a result image of the tree when exposure is performed once. The blackened pixels will be the first image.

도 42는 두 번째 노출 데이터를 나타낸다. 이번 노출 시에는 영상이 오른쪽으로 ½ 픽셀만큼 이동되었음을 주목해야 한다. 영상의 이동을 위해서는 물리적으로 센서를 이동시켜도 좋고, 업계에서 공지되어 있는 "영상 안정화" 기법을 반대로 적용해도 좋다. 영상 안정화는 노출 시에 카메라가 움직임으로 인하여 발생하는 상 흐림 현상을 제거하는 방법이다. 두 번째 노출을 위해, 이 기법을 반대로 적용하여 센서에 결상된 영상을 이동시킨다. 노출과 노출 사이에서만 영상 안정화 기법을 역적용하는 것은 독특한 기법으로서 본 발명에서 특허청구할 것이다.Figure 42 shows the second exposure data. Note that at this exposure, the image was shifted by ½ pixels to the right. In order to move the image, the sensor may be physically moved or the image stabilization technique known in the art may be reversed. Image stabilization is a method of eliminating blur caused by camera movement during exposure. For the second exposure, this technique is reversed to move the image that is imaged to the sensor. Reverse application of image stabilization techniques between exposure and exposure is a unique technique and will be sought by the Patent Office in the present invention.

도 42에서, "다른 곳보다 더 많이 덮여있는" 영상의 픽셀은 D2, C3, D3, C4, D4,(E4는 어느 쪽이든 좋다), C5, D5, E5이다. 이에 따른 결과 영상 데이터를 도 43에 나타내었다.In Figure 42, the pixels of the image "covered more than others" are D2, C3, D3, C4, D4, (E4 is either good), C5, D5, E5. The resulting image data is shown in FIG.

도 44는 세 번째 노출 데이터를 나타낸다. 이번에는 영상을 두 번째 노출 데이터로부터 위로 ½ 픽셀만큼 이동시킨다. 결과적으로 나무가 픽셀 D2, C3, D3, C4, D4, E4, D5 위를 차지하고 있다. 이 세 번째 노출의 결과 데이터는 도 45와 같다.Figure 44 shows the third exposure data. This time, the image is shifted up by ½ pixel from the second exposure data. As a result, the tree occupies pixels D2, C3, D3, C4, D4, E4 and D5. The resultant data of this third exposure is shown in FIG.

계속해서, 도 46의 예제에서는 영상을 세 번째 노출 데이터로부터 ½ 픽셀만큼 왼쪽으로 이동시킨다. 그 결과로 영상이 픽셀 C2, C3, D3, B4, C4, D4, C5 위에 있게 된다.Subsequently, in the example of Fig. 46, the image is shifted to the left by ½ pixel from the third exposure data. As a result, the image is on pixels C2, C3, D3, B4, C4, D4, and C5.

도 47은 네 번째 노출 데이터를 기록한 영상을 나타낸다. 이제 카메라는 동일한 나무 영상에 대해서 네 가지 장면을 갖게 되었다. 47 shows an image in which the fourth exposure data is recorded. Now the camera has four scenes for the same wooden footage.

현재의 영상 안정화는 1회 노출 동안에 발생하는 미세한 손떨림, 심지어는 모터 등의 진동을 중화하여 상 흐려짐을 제거하고 있다. 이러한 기능은 제2, 제3, 제4, 또는 그 이상의 위치로의 영상 이동이 신속하게 이루어질 수 있다는 것을 암시한다. The current image stabilization eliminates blur caused by minute hand shake and even motor vibration during one exposure. This function implies that image movement to the second, third, fourth, or higher position can be done quickly.

대부분의 디지털 카메라도 후속 모델의 향상에 의해 동영상 카메라가 되어가고 있는 것처럼(이전에는 정지영상 카메라 밖에 없었음), 픽셀 응답 시간도 또한 계속해서 개선되고 있다. 이는 또한 신속한 다중 노출을 할 수 있다는 것을 암시하는데, 이는 특히 동영상 촬영 기법의 본질적인 면이기 때문에 그러하다.As most digital cameras are becoming video cameras with improvements in subsequent models (previously only static cameras), pixel response times are also improving. This also implies that you can expose multiple exposures quickly, especially since it is an essential aspect of video capture techniques.

다중 노출 시에 각 노출 동안에 영상을 안정시키면서, 각 노출마다 영상을 약간씩 일정한 양만큼 이동시키도록 영상 안정화 메커니즘의 모드를 바꾸는 것에 대해서는 이전에 실시했거나 암시하지 않았었다. It has not previously been suggested or implied to change the mode of the image stabilization mechanism to move the image a slight amount by a certain amount for each exposure while stabilizing the image during each exposure at multiple exposures.

동일한 효과를 위한 다른 방식으로서 센서를 약간 이동하는 것도 또한 신규의 방법이다.It is also a new way of moving the sensor a little as an alternative for the same effect.

소프트웨어가 네 개의 캡쳐된 영상을 해석하는데, 이는 본 발명의 청구범위의 일부이다. 소프트웨어는 도 45와 47의 데이터를 "보고" 나서, 이 영상이 무엇이든간에 아래쪽 가운데에 짧은 토막이 있는 것으로 파악한다. 도 41과 43에서는 이 토막이 누락되어 있기 때문에, 소프트웨어는 이 토막의 폭은 1 픽셀이고 길이는 반(1/2) 픽셀인 것으로 결정한다.The software interprets the four captured images, which are part of the claims of the present invention. The software "sees" the data in Figures 45 and 47, and sees that there is a short segment in the middle of the bottom of whatever the image is. In Figures 41 and 43, since this film is missing, the software determines that the width of the film is one pixel and the length is half (1/2) pixels.

소프트웨어는 전체 네 개의 장면을 보고 나서, 이 영상이 무엇이든간에 상기 토막 위에, 다른 부분보다 넓고 수평으로 3개 픽셀을 차지하는 기단부가 있는 것으로 파악한다. 이는 도 45와 도 47의 4행과, 도 41 및43의 5행을 근거로 결정한다. The software sees the entire four scenes, and then identifies whatever the image is, there is a proximal portion above the segment, occupying three pixels horizontally and wider than the other segment. This is determined based on the fourth row in FIGS. 45 and 47 and the fifth row in FIGS. 41 and 43.

또한, 소프트웨어는 도 41 및 도 43의 3행과 4행을 보고, 이 영상이 무엇인지는 모르지만 상기 넓은 기단부 위에 제2층이 폭 2 픽셀, 높이 2 픽셀을 차지하고 있다고 일단 파악한다. 그러나, 소프트웨어는 다시 도 45와 도 47의 3행을 보고서 상기 제2층의 폭은 2 픽셀이지만 높이는 1 픽셀밖에 안 될 수 있음을 확인한다. 소프트웨어는 이렇게 다른 결과를 평균해서 제2계층은 1½ 픽셀의 높이를 갖는 것으로 결론낸다.In addition, the software sees lines 3 and 4 of FIGS. 41 and 43 and once recognizes that the second layer occupies 2 pixels wide and 2 pixels high on the wide base end, although this image is not known. However, the software again sees the third row of FIGS. 45 and 47 and confirms that the width of the second layer is 2 pixels, but the height is only 1 pixel. The software thus averages the other results and concludes that the second layer has a height of 1½ pixels.

소프트웨어는 네 개 영상 모두의 2행을 보고, 제2층 위에 더 좁은 영상이 또 있음을 인지하게 된다. 이 영상은 일관되게 1 픽셀의 폭과 1 픽셀의 넓이를 차지하며, 제2층 위에 올려져 있고, 가장 넓은 기단부 위의 중심에 위치하고 있다(맨 아래의 토막이 있는 경우에는 이 토막의 중심 위에 있음).The software sees two rows of all four images and recognizes that there is another narrower image on the second layer. This image consistently occupies a width of 1 pixel and a width of 1 pixel, is placed on the second floor and is located at the center of the widest proximal section (if there is a bottom section, it is above the center of the section) ).

도 48은 다중 노출 시에 각 노출마다 각각 ½ 픽셀씩 이동하여 촬영하여 기록한 결과 데이터를 나타낸다. 데이터가 네 배의 정보를 갖고 있기 때문에, 합성된 영상은 화면으로 보든 인쇄를 하든 1/4로 세밀한 픽셀이 생성될 것이다. 이로써 한 번의 노출로, 기존에 센서 화면이 캡쳐할 수 없었던 세밀한 영상을 볼 수 있게 된다. FIG. 48 shows the resultant data obtained by photographing and moving each ½ pixel for each exposure at the time of multiple exposure. Since the data has four times as much information, the synthesized image will be fine-grained by 1/4, whether viewed on the screen or printed. With this one exposure, you will be able to see detailed images that the sensor screen could not capture previously.

도 49는 센서를 4회 노출시키되 각 노출시마다 ½ 픽셀씩 이동하면서 디지털적으로 기록했을, 나무의 원래 영상을 나타낸다. 도 49는 나무 자체와, 이 나무를 네 번의 노출에 의해 기록했었을 네 개의 대표적인 디지털 영상을 나타낸다. 전혀 나무처럼 보이지 않는다. Figure 49 shows the original image of a tree, in which the sensor was exposed four times, digitally recorded, moving by ½ pixel for each exposure. Figure 49 shows the tree itself and four representative digital images that had been recorded by four exposures of this tree. It does not look like a tree at all.

나무 영상을 4회 디지털 캡쳐한다. 도 50은 원래의 나무를 다수의 영상으로 분해하는 방법, 및 이들 네 영상으로부터 소프트웨어에 의해 생성된 합성 영상이 얼마나 원래 나무와 닮은지를 나타낸다. 완전하게 닮지는 않지만 보다 더 근접하게 되었다. 이 영상의 영역이 대체로 0.000001%인 점을 감안하면, 이 정도로 영상이 닮는다면 감시용으로는 충분히 사용할 수 있을 것이다.
Capture the tree image four times. 50 shows a method of decomposing an original tree into a plurality of images, and how the synthetic image generated by the software from these four images resembles the original tree. It is not completely resembling, but it is getting closer. Given that the area of this image is approximately 0.000001%, if the image resembles to this extent, it will be sufficient for surveillance purposes.

VI. 곡면 센서 형성을 위한 다른 방법
VI. Other methods for curved sensor formation

이 새로운 방법 중 한 실시예에 따르면, 거의 용융 상태로 웨이퍼를 가열하여 실리콘을 성형하기 위한 오목한 금형을 만드는 것을 제안한다. 그 다음에는 중력에 의해서 실리콘이 금형에 안착된다. 이러한 모든 방법에서는, 금형을 식히기 위해 빠르게 온도를 내림으로써 균일하게 원래의 두께를 유지하도록 할 수 있다. According to one of these new methods, it is proposed to make a concave mold for heating the wafer in a molten state to form silicon. Then the silicon is seated on the mold by gravity. In all of these methods, it is possible to keep the original thickness evenly by lowering the temperature rapidly to cool the mold.

원심력의 이용도 두 번째 가능한 방법이다. 세 번째 방법으로는 금형의 다공성에 의해 기압을 낮추는 것이고, 네 번째 방법은 압력 및/또는 매우 높은 비등점에서 사용되는 액체를 이용하여 증기의 온도를 올리는 것이다. 이 네 번째 방법은 웨이퍼 위에서 단순히 볼록한 금형을 눌러서 오목한 금형 속으로 들어가도록 하면 된다. 그러나 이때도 실리콘의 온도를 높인 다음에 시행한다. The use of centrifugal force is also the second possible method. The third method is to lower the air pressure by the porosity of the mold, and the fourth method is to raise the temperature of the vapor using a liquid at a pressure and / or a very high boiling point. The fourth method is to simply press the convex mold on the wafer and into the concave mold. However, this is also done after the temperature of the silicon is raised.

가열은 여러 방법으로 실시할 수 있다. 종래의 "베이킹"이 그 한 방법이고, 다른 재료보다도 실리콘 재료에 훨씬 많은 영향을 미치는 복사 파장을 선택하는 것이 두 번째 방법이다. 이 두 번째 방법을 진행하기 위해, 복사파의 대부분을 흡수하는 그을음 등의 물질을 실리콘의 볼록하게 될 면에 바르고 나중에 제거해도 좋다. 이 물질이 복사파를 흡수함으로써 해당 부분에 대한 가열이 촉진되지만, 이에 의해 웨이퍼의 두께가 불균일하게 가열된다. 즉, 볼록한 면이 가장 많이 가열됨으로써 이 부분이 가장 많이 늘어나게 된다. 세 번째 방법으로는 복사파 흡수 물질을 양측면에 적용하는 것이다. 오목한 면에서는 압축 긴장이 흡수되고 볼록한 면은 인장 응력에 의해 잡아당겨지기 때문에, 웨이퍼의 파열없이 이들 변형력을 조절하도록 가열할 수 있다. The heating can be carried out in various ways. Conventional "baking" is one method, and a second method is to select a radiation wavelength that has a much greater effect on the silicon material than other materials. To proceed with this second method, a substance such as soot, which absorbs most of the radiation, may be applied to the convex side of the silicon and removed later. This material absorbs the radiation wave to accelerate heating to the portion, but the thickness of the wafer is thereby unevenly heated. That is, the convex surface is heated most, and this portion is increased most. A third method is to apply a radiation absorbing material to both sides. Since the compressive strain is absorbed on the concave side and the convex side is pulled by the tensile stress, it can be heated to adjust these stresses without rupture of the wafer.

마지막 방법으로는 단순히, 곡면 센서를 만들기 위해 불필요한 부분을 가공, 연마, 레이저 에칭으로 제거하는 것이다. The final method is simply to remove unnecessary parts by machining, polishing, and laser etching to create a curved surface sensor.

첫 번째 구현 과정으로서, 실리콘 등의 잉곳 재료를 가공하여 곡면을 형성한다. 이 잉곳은 통상의 웨이퍼보다 두꺼워야 할 것이다. 가공으로는 레이저, 이온, 또는 기타 방법에 의한 기계적 가공을 이용할 수 있다. 두 번째 구현 과정으로서, 웨이퍼 재료를 오목한 원판이 배열된 패턴 위에 올려놓는다. 섬광으로 가열함으로써 이 웨이퍼 재료가 오목한 홈 속으로 떨어지게 된다. 이는 단순히 중력에 의해서 이루어질 수도 있고, 원심분리기를 이용할 수도 있다. As a first implementation process, a ingot material such as silicon is processed to form a curved surface. This ingot should be thicker than an ordinary wafer. Machining can be by laser, ion, or other mechanical machining. As a second implementation, the wafer material is placed on a pattern of concave discs arranged. By heating with flash light, the wafer material falls into the concave grooves. This can be done simply by gravity or by using a centrifuge.

또 다른 방법으로서, 실리콘 등의 재료의 뒷면을 가열할 복사파의 특정 파장을 흡수하는 특정 물질을 뒷면에 "도포"함으로써, 센서의 중간 부분에 열이 적게 전달되도록 할 수 있다.As another method, a specific substance absorbing a specific wavelength of a radiation wave to be heated on the back side of a material such as silicon may be "applied "

이로써 실리콘 등의 재료의 중간 부분이 덜 가열되면서도 늘어나는 면에서의 유연성이 커져서 금형에 딱 맞게 되어, 센서가 함께 지지되며 수축 또는 늘어나지 않게 되고, 다만 구부러지기만 하게 된다. 또 다른 실시예에 따르면, 앞면에 파장 흡수 물질을 "도포"하고 복사파를 조사함으로써, 해당 부분이 파열없이 수축되도록 할 수 있다. 또 다른 실시예에 따르면 재형성 하기 직전에 양면을 동시에 가열한다. 도핑 물질(dopant)을 이미 주입한 경우에는, 복사 파장 및 흡수 물질의 "도포"가 도핑 물질에 미치는 영향을 최소화하거나 없앨 수 있도록 선택해야 할 것이다.
As a result, the middle portion of the material such as silicon is less heated, and the flexibility on the extended surface is increased to fit the mold, so that the sensors are supported together, not shrunk or stretched, but are only bent. According to another embodiment, the wavelength absorbing material may be "coated" on the front surface and irradiated with a radiation wave to cause the portion to shrink without tearing. According to another embodiment, both surfaces are simultaneously heated immediately before reformation. If a dopant is already implanted, it should be selected to minimize or eliminate the effect of radiation wavelength and "application" of the absorbing material on the doping material.

VII. 영상 선명도의 향상
VII. Improved image sharpness

본 발명의 다른 실시예에 따르면, 다중 노출 촬영하는 동안에, 센서 및/또는 광학 요소를 의도적으로 대략 일정하게 이동시킨다. 또 다른 실시예에 따르면, 이러한 이동을 간헐적으로 할 수 있다. 그리고 소프트웨어가 다중 노출을 처리하여 우수한 화질과 선명한 엣지를 갖는 향상된 영상을 생성한다. 소프트웨어는, 사용자가 결정할 수 있는 한 많은 노출을 취한다.According to another embodiment of the invention, during multiple exposure exposures, the sensor and / or the optical element are intentionally moved approximately constantly. According to another embodiment, this movement can be done intermittently. The software then processes multiple exposures to produce enhanced images with excellent image quality and sharp edges. The software takes as much exposure as the user can determine.

본 실시예에서 센서는 픽셀 밀도가 달라지도록 배열되는데, 센서의 중앙부에서 가장 밀도가 높다. 센서가 회전시에 바깥쪽 가장자리(주변부)에서의 이동이 중앙부에서의 이동보다 훨씬 크기 때문에, 센서에 걸쳐서 픽셀 밀도가 일정한 경우에는, 임의의 소정 속도에서, 중앙부에서의 변화가 아주 적게 되거나 바깥쪽 주변부에서의 변화가 아주 크게 될 것이다. 픽셀 밀도를 변화시켜서 이를 해결한다. 이동의 픽셀 직경보다 작게 사진을 촬영함으로써 합성 영상의 향상된 선명도를 얻게 된다. In this embodiment, the sensors are arranged to have different pixel densities, which are the most dense at the center of the sensor. In the case where the pixel density is constant over the sensor, since the movement at the outer edge (periphery) of the sensor is much larger than the movement at the center, when the sensor rotates, at any given speed, The change in the periphery will be very large. This is solved by changing the pixel density. By taking a picture smaller than the pixel diameter of the movement, improved sharpness of the composite image is obtained.

센서를 고정하고 영상을 이동시키는 경우When fixing the sensor and moving the image

본 발명의 다른 실시예에 따르면, 평면 또는 곡면 센서를 고정하고, 영상을 원형으로 이동시켜서 데이터를 취득하거나 영상을 생성할 수 있다. 이러한 실시예를 구현하는 하나의 예를 들면, 영상의 원형 이동 경로의 직경이 전체적으로 센서의 픽셀 폭보다 작다. 그 일실시예로서, 원형 이동 경로의 직경이 픽셀 폭의 절반이 된다. 이 실시예에 따르면, 픽셀 밀도는 센서 전역에서 일정하다. 만약 영상이 시계 사진이라면, 이 시계는 작은 원을 그리며 일정하게 이동할 것이고, 숫자 12는 항상 위에, 숫자 6은 항상 아래에 있게 될 것이다. 본 발명은 두 가지 실시예를 포함하는데, 하나는 센서가 대물 렌즈 아래에서 이동하는 실시예이고 다른 하나는 영상이 센서 위에서 이동하는 실시예이다.
According to another embodiment of the present invention, it is possible to fix a plane or curved surface sensor and move the image in a circular shape to acquire data or generate an image. One example of implementing this embodiment is that the diameter of the circular motion path of the image is less than the pixel width of the sensor as a whole. In one embodiment, the diameter of the circular movement path is half of the pixel width. According to this embodiment, the pixel density is constant throughout the sensor. If the picture is a clock picture, the clock will move constantly in a small circle, the number 12 will always be above, and the number 6 always be below. The present invention includes two embodiments, one in which the sensor moves under the objective and the other in which the image moves on the sensor.

영상을 고정하고 센서를 이동시키는 경우When the image is fixed and the sensor is moved

본 발명의 또 다른 실시예에 따르면, 평면이나 곡면 센서가 대체로 일정하게 완전한 원을 그리며 이동하면서 데이터를 취득하거나 영상을 생성할 수 있다. 이러한 실시예를 구현하는 하나의 예를 들면, 이동형 센서의 원형 이동 경로의 직경이 전체적으로 센서의 픽셀 폭보다 작다.According to another embodiment of the present invention, a planar or curved sensor can acquire data or generate an image while moving in a substantially constant circle. One example of implementing this embodiment is that the diameter of the circular motion path of the mobile sensor is less than the pixel width of the sensor as a whole.

일실시예에 있어서, 원형 이동 경로의 직경은 픽셀 폭의 절반이 된다. In one embodiment, the diameter of the circular path of travel is half the pixel width.

이러한 실시예들의 이점은 다음과 같다.The advantages of these embodiments are as follows.

왕복 이동이 전혀 없음No round trip

무진동Non-vibration

중지 및 이동 동작시에 에너지 손실이 없음
No energy loss during stop and move operations

도 51은 평면 센서(346) 위에서 이동하는 광학 요소(344)의 개략도(342)이다. 광학 요소(344)를 평면 센서 위에서 완전한 원을 그리도록 움직여서 입사광이 완전한 원 경로(348)을 따라 평면 센서 위에서 이동하도록 한다. 본 실시예에서 광학 요소는 대물 렌즈로서 도시하였다.51 is a schematic view 342 of an optical element 344 moving over a planar sensor 346. FIG. The optical element 344 is moved to draw a complete circle on the plane sensor so that the incident light travels along the complete circular path 348 over the plane sensor. In this embodiment, the optical element is shown as an objective lens.

다른 실시예에 따르면 다른 적절한 렌즈나 광학 부품을 사용할 수 있다. 또다른 실시예에 따르면, 광학 요소(344)를 대체로 지속적으로 또는 간헐적으로 앞뒤로 기울이거나 끄덕이도록 하여 고정형 평면 센서(346) 위에서 영상이 완전한 원을 그리도록 이동시킬 수 있다. Other suitable lenses or optical components may be used according to other embodiments. According to another embodiment, the optical element 344 may be tilted or nipped back or forth approximately continuously or intermittently to move the image over the fixed planar sensor 346 to draw a complete circle.

도 52는 도 51에 나타낸 것과 같이 고정형 평면 센서(346) 위에서 이동하는 광학 요소(344)를 위에서 본 모습(350)이다. 센서(346) 위에서 광학 요소(344)가 완전한 원 경로로 움직여서 평면 센서(346) 상에서 입사광을 이동시킨다.Figure 52 is an illustration 350 of an optical element 344 viewed from above, moving over a stationary planar sensor 346 as shown in Figure 51. The optical element 344 moves over the sensor 346 to the full original path to move the incident light on the plane sensor 346.

도 53은 고정형 곡면 센서(354) 위에서 움직이는 광학 요소(344)의 개략도(352)이고, 도 54는 도 53에 나타낸 것과 같은 광학 요소(344) 및 센서(354)를 위에서 본 모습(356)이다.53 is a schematic view 352 of an optical element 344 moving over a fixed curved sensor 354 and FIG. 54 is an illustration 356 of an optical element 344 and sensor 354 as viewed from above .

도 55는 고정형 광학 요소(362) 아래에서 평면 센서(360)를 움직이는 방법의 개략도(358)이고, 도 56은 도 55에 나타낸 것과 같은 고정형 광학 요소(362) 및 센서(360)를 위에서 본 모습(372)이다.Figure 55 is a schematic 358 of a method of moving a planar sensor 360 under a fixed optical element 362 and Figure 56 is a top view of the fixed optical element 362 and sensor 360, (372).

도 57은 도 55와 56에 도시한 센서(360)의 회전 운동을 일으키는 구성 요소의 상세도(364)이다. 회전 원판(366) 위에 설치된 연결봉 또는 연결부(367)에 평면 센서(360)가 부착되어 있다. 즉, 회전 원판(366)은 센서(360) 아래에 위치한다. 센서의 부착은 원판(366)의 중심에서 벗어난 위치(368)에서 이루어진다. 원판은 원판 아래에 있는 전기 모터(370)에 의해 회전한다. 모터의 축(372)은 연결봉(367)의 부착점(368)과 정렬되지 않는다.57 is a detailed view 364 of the components that cause the rotational motion of the sensor 360 shown in Figs. 55 and 56. Fig. A plane sensor 360 is attached to a connecting rod or connection portion 367 provided on the rotary disk 366. That is, the rotating disk 366 is located under the sensor 360. [ Attachment of the sensor takes place at a position 368 off the center of the disc 366. The disk is rotated by the electric motor 370 under the disk. The axis 372 of the motor is not aligned with the attachment point 368 of the connecting rod 367. [

도 58은 도 57에 도시한 구성의 사시도이다.Fig. 58 is a perspective view of the configuration shown in Fig.

도 59는 곡면 센서(376)위에 위치하는 고정형 광학 요소(362)의 개략도(374)이다. 고정형 광학 요소(362) 아래에서 곡면 센서(376)가 이동한다. 59 is a schematic view 374 of a fixed optical element 362 located on a curved surface sensor 376. FIG. The curved surface sensor 376 moves under the fixed optical element 362.

도 60은 도 59에 나타낸 광학 요소(362) 및 센서(376)를 위에서 본 그림이다.FIG. 60 is a top view of the optical element 362 and sensor 376 shown in FIG.

도 61은 도 51과 52에 도시한 것과 같이 광학 요소(344)를 원형 이동시키는 방법의 개략도(378)이다. 광학 요소(344)의 주변에 밴드(380)가 둘러싸고 있는데, 이는 다수의 스프링(384)에 회전 접촉점(382)을 제공한다. 스프링 중 두 개에 캠(386 및 388)이 접촉하고, 각 캠은 전기 모터(390 및 392)에 장착되어 있다. 캠이 회전하면, 광학 요소를 둘러싼 밴드에 연결된 스프링이 광학 요소를 움직인다. 두 캠은 원운동을 일으키기 위해 90°로 위상이 어긋나 있다.61 is a schematic view 378 of a method of circularly moving the optical element 344 as shown in Figs. 51 and 52. Fig. A band 380 surrounds the optical element 344, which provides a rotational contact point 382 to the plurality of springs 384. Two of the springs contact the cams 386 and 388, and each cam is mounted to the electric motors 390 and 392. When the cam rotates, a spring connected to the band surrounding the optical element moves the optical element. The two cams are out of phase by 90 ° to produce a circular motion.

도 62는 원형 경로 상에서 단일 궤도를 따라 이동하는 평면 센서의 아홉 가지 모습을 보여주는 개략도(394)이다. 일실시예에 따르면, 원형 경로는 한 개의 픽셀 직경보다 작다. 각 도면에서, 사각형 센서의 좌측 하단 모서리 근처에 있는 회전축 C가 도시되어 있다. 모든 도면마다 반지름 선분이 도시되어 있는데, 이는 회전축과, 각 사각형 상단에 있는 지점을 연결하는 선분이다. 각 도면은 사각형 센서가 회전축 C를 중심으로 시계 방향으로 45°이동한 것을 나타낸다. 각 도면에서 점선으로 그린 사각형은 사각형 센서의 원래 위치를 나타낸다. 반지름 선분에 대해서는, 원에서의 8단계의 이동에 따라 r1에서 r9까지 번호를 매겼다.62 is a schematic view 394 showing nine aspects of a planar sensor moving along a single orbit on a circular path. According to one embodiment, the circular path is smaller than one pixel diameter. In each figure, a rotational axis C near the lower left corner of the square sensor is shown. Every drawing has a radial line segment, which is the line connecting the rotation axis and the point at the top of each rectangle. Each figure shows that the square sensor moves 45 degrees in the clockwise direction about the rotation axis C. In each figure, the rectangle drawn by the dotted line represents the original position of the rectangular sensor. As for the radial line segments, r1 to r9 are numbered according to the 8-step movement in the circle.

다른 실시예에 따르면, 도 62에 묘사한 센서를 직사각형이나 기타 다른 적절한 평면 형태로 구성할 수 있다. 또다른 실시예에 따르면, 센서를 곡면이나 반구형으로 만들 수도 있다. 이동은 시계 방향으로, 시계 반대 방향으로, 또는 본 발명의 목적 달성을 위한 적절한 위치로 이루어질 수 있다.According to another embodiment, the sensor depicted in Figure 62 may be configured in a rectangular or other suitable planar form. According to another embodiment, the sensor may be curved or hemispherical. The movement can be clockwise, counterclockwise or in a suitable position for achieving the object of the present invention.

도 63은 픽셀이 배열된 평면 센서(396)의 개략도이다. 도 63에서 나타낸 센서는 원래 위치에 있는 것이고, 도 64와 65에 나타낸 센서는 원형 경로를 따라 연속해서 회전하고 있다.63 is a schematic diagram of a planar sensor 396 with pixels arranged. The sensor shown in Fig. 63 is in the original position, and the sensors shown in Figs. 64 and 65 are continuously rotating along the circular path.

센서가 회전하는 동안에, 다중 노출이 이루어지는데, 이는 소프트웨어에 의해 결정된다. 본 실시예에 따르면, 내측 픽셀 열과 외측 픽셀 열은 각각 동일한 수의 픽셀 간격만큼 이동한다. 본 실시예는 센서의 픽셀 수를 넘어서는 영상의 선명도를 강화시키며, 앞의 V장 "센서가 기존에는 기록할 수 없는 세밀한 영상을 캡쳐하기 위한 방법"에서 설명한 방법과 함께 사용할 수 있다. During the rotation of the sensor, multiple exposures are made, which is determined by the software. According to the present embodiment, the inner pixel column and the outer pixel column each move by the same number of pixel intervals. This embodiment enhances the sharpness of the image beyond the number of pixels of the sensor, and can be used in conjunction with the method described in the previous V chapter " Method for capturing detailed images that sensor can not record in the past. &Quot;

센서 상의 픽셀 밀도가 급격히 증가하고 있지만, 픽셀 크기가 줄어들어서 각 픽셀이 광자 하나씩만 검출할 수 있게 되기 때문에, 픽셀 밀도의 한계에 부닥쳤다. 즉, 픽셀 크기가 작아짐에 따라 센서의 감도가 줄어든다.Although the pixel density on the sensor is rapidly increasing, the pixel density is limited because each pixel can detect only one photon by reducing the pixel size. That is, as the pixel size decreases, the sensitivity of the sensor decreases.

본 실시예는 미국 등록특허 8 248 499에 설명된 센서 연결 방법 및 장치와 함께 실시할 수 있다.This embodiment can be carried out in conjunction with the sensor connection method and apparatus described in U.S. Patent No. 8 248 499.

또다른 실시예로서, 소형 무선장치를 이용하여 센서와 마이크로프로세서를 연결할 수 있다.
As another example, a small wireless device may be used to connect the sensor to the microprocessor.

VIII. 간극을 포함하는 디지털 센서들로부터 완전한 영상을 생성하는 방법
VIII. Method for generating a complete image from digital sensors including gaps

본 발명의 다른 실시예에서, 완전한 영상은 간극이 포함된 디지털 센서들로부터 만들어진다. 또 다른 실시예에서, 완전한 영상은 물리적으로 간격을 둔 또는 분리된 센서 배열로부터 만들어진다. 이들 두 실시예들 중 하나에서, 센서는 단일 광로의 뒤에서 동작한다.In another embodiment of the present invention, the complete image is made from digital sensors including gaps. In yet another embodiment, the complete image is made from physically spaced or discrete sensor arrays. In either of these two embodiments, the sensor operates behind a single optical path.

제1실시예에서, 카메라는 도 7에 도시된 것과 같이, 홑눈(32)들 사이에 간극(34)이 포함되도록 구성된 전반적으로 오목한 센서를 포함한다. 영상 안정화 기능이 활성화된 동안에 첫 번째 노출이 수행된다. 영상 안정화에 대해서는 II, III, 및 V 장에 설명되어 있다. 그 다음에, 영상 안정화 기능이 비활성화되고 다시 재활성화된다. 그 다음에, 영상 안정화 기능이 활성화된 동안에 두 번째 노출이 일어난다. 다음에, 신호 처리기(22)는 소프트웨어 프로그램을 실행하여 첫 번째 노출에서 누락된 영상 데이터를 집어내어서(pick up) 이를 첫 번째 노출에 끼워넣어서(stitch) 완전한 영상을 만든다. 일반적으로 이 과정은 동영상, 즉, 비디오를 생성하기 위하여 연속적으로 이용될 수 있다.In a first embodiment, the camera includes a generally concave sensor configured to include a gap 34 between eyelashes 32, as shown in FIG. The first exposure is performed while the image stabilization function is activated. Image stabilization is described in chapters II, III, and v. Then, the image stabilization function is deactivated and reactivated again. Then, a second exposure occurs while the image stabilization function is activated. Next, the signal processor 22 executes a software program to pick up the missing image data at the first exposure and stitch it into the first exposure to create a complete image. In general, this process can be used continuously to generate moving images, i.e., videos.

도 66과 67은 간극을 갖는 센서들과 그렇지 않은 센서들 사이의 차이를 설명 하기 위한 것이다. 도 66은 렌즈와 센서의 조합(400)을 나타낸다. 렌즈(402)는 평면 센서(404)에 인접하여 위치한다. 렌즈(402)에는 중심축(406)이 있다. 광선(408)이 렌즈(402)로 들어가서 굴절된다. 렌즈(402)의 다른 측(20)에서 나온 광선은 평면 센서(404)에 조사된다. 도 67에는, 위와 동일한 렌즈(402)와, 간극이 있는 센서(412)들이 포함된 다른 요소들의 조합(410)이 도시된다. 입사광(408)이 렌즈(402)에 들어가고 렌즈(402)의 다른 측에서 나와서 센서(412)의 일 부분에 부딪힌다.66 and 67 illustrate the difference between sensors with gaps and sensors without gaps. 66 shows a combination 400 of a lens and a sensor. The lens 402 is positioned adjacent to the planar sensor 404. The lens 402 has a central axis 406. Light ray 408 enters lens 402 and is refracted. The light rays from the other side 20 of the lens 402 are directed to the plane sensor 404. 67, there is shown the same lens 402 as above and a combination 410 of other elements including sensors 412 with gaps. Incident light 408 enters lens 402 and exits from the other side of lens 402 and strikes a portion of sensor 412.

도 66에 도시된 바와 같이 평면 센서(404)를 이용하면 입사광(408)은 렌즈(402)를 통과하면서 굴절에 의해서 평면 센서의 바깥 쪽 부분에 조사된다. 도 67에 도시된 바와 같이 여러 개의 "곡면" 센서를 이용하면, 입사 광선은 일부의 센서에 그 법선에 가까운 각도로 그리고 이 센서의 중심에 보다 근접한 부분에 조사된다. 이러한 작용에 의해서 화질이 향상된다.66, the incident light 408 passes through the lens 402 and is irradiated to the outside of the plane sensor by refraction. With the use of several "curved" sensors as shown in Fig. 67, the incident light is irradiated to some sensors at an angle close to its normal and closer to the center of the sensor. The image quality is improved by this action.

도 68, 69는 영상 안정화 시스템이 포함되어 있지 않은 휴대형 카메라로 촬영된 장면을 나타낸다. 도 68에서, 영상 프레임(416)에, 어린이(418)와 야구공(420)을 짧은 시간 간격으로 떨어진 두 연속 장면으로서 나타내고 있다. 이 시간 간격 동안에 사용자의 손이 약간 흔들린다. 도 68에서 노출을 시작하고 짧은 시간이 지난 후에 도 69에서 노출을 끝낸다. 결과 사진으로서, 휴대형 카메라의 약간의 지터에 의해서 흐릿하게 된 영상이 얻어진다.68 and 69 show scenes shot with a portable camera not including an image stabilization system. In Fig. 68, the child 418 and the baseball ball 420 are shown as two consecutive shots separated by a short time interval in the image frame 416. In Fig. During this time interval the user's hand shakes slightly. The exposure is terminated in FIG. 68 after a short time has elapsed from the start of exposure in FIG. As a result photograph, an image blurred by a slight jitter of the portable camera is obtained.

도 70 및 71은 도 68 및 69에 도시된 것과 동일한 장면을, 영상 안정화 기능이 포함된 휴대형 카메라로 촬영한 장면을 나타낸다. 도 70에서, 영상 프레임(416)에, 짧은 시간 간격으로 분리된 두 연속 장면으로 어린이(418)와 야구공(420)을 나타내고 있다. 이 시간 간격 동안에 사용자의 손이 약간 떨린다. 도 70에서 노출을 시작하고 짧은 시간 후에 도 71에서 노출을 끝낸다. 휴대형 카메라의 작은 지터가 영상 안정화 시스템에 의해 보정되기 때문에 결과 사진의 영상은 선명하다.Figs. 70 and 71 show a scene shot by the portable camera including the image stabilization function, the same scene as shown in Figs. 68 and 69. In Fig. 70, a child 418 and a baseball ball 420 are displayed in two consecutive scenes separated by a short time interval in an image frame 416. Fig. The user's hand shakes a little during this time interval. The exposure is started in FIG. 70, and after a short time, the exposure is terminated in FIG. Since the small jitter of the portable camera is corrected by the image stabilization system, the image of the result photograph is clear.

도 72 내지 75는 광학식 영상 안정화가 포함된 본 발명의 실시예를 추가로 도시하고 있다. 도 72는 고양이(432)를 육안으로 본 장면을 나타낸다. 도 73에서,고양이의 영상은 카메라의 센서(434) 부분에 중첩된다. 센서(434)는 간극(438)으로 분리된 네 개의 대략 사각형의 미니센서(436)를 포함한다.Figures 72 to 75 further illustrate an embodiment of the present invention involving optical image stabilization. 72 shows a scene when the cat 432 is seen with the naked eye. 73, the image of the cat is superimposed on the sensor 434 portion of the camera. The sensor 434 includes four substantially rectangular mini sensors 436 separated by a gap 438.

도 73 에서, 광학식 영상 안정화가 활성화된 동안에 카메라는 첫 번째 노출을 한다. 첫 번째 노출시에는 고양이 영상 중에서 미니센서(436)에 조사된 부분(440)만 기록된다. 이 첫 번째 노출에서 기록되지 않은 고양이의 전체 영상 중의 다른 부분들은 간극(438) 위에 놓인 부분들이며, 이 부분을 영상의 "누락 부분"(442)으로서 음영으로 표시해 놓았다.73, the camera performs the first exposure while the optical image stabilization is activated. At the first exposure, only the irradiated portion 440 of the mini-sensor 436 is recorded in the cat image. Other portions of the entire image of the cat that were not recorded in this first exposure are those overlying the gap 438 and are marked as shaded as "missing portions" 442 of the image.

도 74 에서, 광학식 영상 안정화가 활성화되어 있는 동안에 카메라는 두 번째 노출을 한다. 첫 번째와 두 번째 노출 시작 간에 고양이가 움직이거나 그 위치를 옮겼다. 이 움직임은 단순히 사용자의 손에 의해 일어난 지터일 수도 있다. 두 번째 노출에서는, 미니센서(436)에 조사된 고양이 영상의 부분(444)만이 기록된다. 이 두 번째 노출에서 기록되지 않은 고양이의 전체 영상의 다른 부분들은 간격(438) 위에 놓인 부분들이며 이 부분을 "누락 부분"(446)으로서 음영 표시하였다.74, the camera performs a second exposure while the optical image stabilization is activated. The cat moved or moved its position between the first and second exposure starts. This movement may simply be the jitter caused by the user's hand. At the second exposure, only the portion 444 of the cat image illuminated to the mini-sensor 436 is recorded. Other portions of the full image of the cat that were not recorded in this second exposure are those overlying the gap 438 and shaded as "missing portion" 446.

카메라가 첫 번째 및 두 번째 노출을 기록한 후에, 카메라의 메모리에 저장된 전자식 안정화 소프트웨어가 카메라의 프로세서에서 실행된다. 이 소프트웨어 에 의해 두 노출을 픽셀별로 비교하고, 각 노출의 누락 부분들을 검출한다. 소프트웨어는 완전한 영상을 만들기 위해, 원래 기록된 부분과 누락 부분들을 "함께 끼워넣어서" 도 75에 보이는 것과 같은 합성 영상(450)을 생성한다.After the camera records the first and second exposures, the electronic stabilization software stored in the camera's memory is executed on the camera's processor. The software compares the two exposures pixel by pixel and detects the missing portions of each exposure. The software creates a composite image 450 as shown in Figure 75 by "interleaving " the original recorded and missing portions to create a complete image.

전자식 영상 안정화 기술은 해당 기술 분야에 주지되어 있다. Wilikpedia에 따르면, 전자식 영상 안정화는 "노출시 카메라의 움직임에 의한 영상 흐림 현상을 줄인다". 일부 카메라에는, 카메라 앵글의 오차를 일으키는 카메라 회전을 검출하기 위해서 자이로스코프를 사용한다. 자이로스코프는 카메라 회전을 계측하고, 이 회전을 보정하기 위해 카메라 내의 센서를 이동시키는 작동기(actuator)로 정보를 보낸다. 다른 실시예에서는, 노출 중에 카메라의 원치않는 움직임을 계측하고 이를 보상하기 위하여 각속도 센서를 사용할 수 있다. Videomaker 웹사이트에 'Image Stabilizer Primer'에 대한 내용이 게시되어 있다. 이에 대해서는 Nicon 및 Canon에서 운용하는 웹사이트에도 설명되어 있다. Yu 등은 논문을 통해 '전자식 영상 안정화의 개요(Summarization of Electronic Image Stabilization)'를 발표하였다(2006년 제7차 International Conference on Computer-Aided Industrial Design and Conceptual Design).Electronic image stabilization techniques are well known in the art. According to Wilikpedia, electronic image stabilization "reduces image blur due to camera movement during exposure". Some cameras use a gyroscope to detect camera rotation that causes camera angle errors. The gyroscope measures the camera rotation and sends information to an actuator that moves the sensor in the camera to correct for this rotation. In other embodiments, an angular rate sensor may be used to measure and compensate for unwanted camera motion during exposure. The 'Image Stabilizer Primer' is posted on the Videomaker website. This is also described on the websites operated by Nicon and Canon. Yu et al. Published 'Summarization of Electronic Image Stabilization' (2006 7th International Conference on Computer-Aided Industrial Design and Conceptual Design).

본 발명의 실시예는 다음과 같은 장점을 제공한다.Embodiments of the present invention provide the following advantages.

단순하고 작은 광학계, Simple and small optical system,

보다 더 많은 빛을 캡처하는 광학계,An optical system that captures more light,

간극에서 누락된 데이터의 캡처.
Capture missing data from the gap.

IX. 영상 안정화 방법
IX. Image stabilization method

도 76은 곡면 센서와 광학식 영상 안정화 모두를 내장한 카메라(452)의 개략도이다. 대물 렌즈(16)가 외함(14)에 설치되어 있다. 카메라 내부에는, 곡면 센서(12)가 그 위의 대물 렌즈(16)로부터의 광선을 수광하는 위치에 있다. 곡면 센서(12)는 많은 미니센서(436)들을 포함하고 있다. 미니센서(436)들의 출력은 광학식 영상 안정화 회로(454)에 연결되는데, 이 영상 안정화 회로(454)는 신호 처리기(22)에 연결된다.76 is a schematic diagram of a camera 452 incorporating both a curved surface sensor and optical image stabilization. And the objective lens 16 is provided in the housing 14. [ Inside the camera, the curved surface sensor 12 is at a position where it receives the light beam from the objective lens 16 thereon. The curved surface sensor 12 includes many mini sensors 436. The outputs of the mini sensors 436 are connected to an optical image stabilization circuit 454, which is connected to the signal processor 22.

도 77은 전자식 영상 안정화를 내장한 카메라(456)를 나타낸다. 대물 렌즈(16)가 외함(14)에 자리 잡고 있다. 카메라 내부에는, 기존의 평면 센서(458)가 대물 렌즈(16)에 의해 수집된 광을 수신하도록 위치한다. 평면 센서(458)는 배선판(38)에의 연결을 위한 관통홀(36)을 포함한다. 전자식 영상 안정화 회로(460)는카메라의 원치 않는 회전을 감지하는 전자식 영상 안정화 센서(462)에 연결된다. 전자식 영상 안정화 회로(460)는 또한, 원치 않는 회전을 보정하기 위하여 센서(458)의 위치를 물리적으로 조절하는 작동기(464)에 연결된다.
77 shows a camera 456 incorporating an electronic image stabilization. The objective lens 16 is located in the housing 14. [ Inside the camera, a conventional planar sensor 458 is positioned to receive the light collected by the objective lens 16. The plane sensor 458 includes a through hole 36 for connection to the wiring board 38. The electronic image stabilization circuit 460 is connected to an electronic image stabilization sensor 462 that senses unwanted rotation of the camera. The electronic image stabilization circuitry 460 is also coupled to an actuator 464 that physically adjusts the position of the sensor 458 to compensate for unwanted rotations.

X. 렌즈 차양의 동작을 제어하는 메커니즘
X. Mechanism to control the motion of the lens shade

도 78은 자동 렌즈 차양 제어기를 갖는 카메라(465)의 개략도이다. 줌 렌즈(466)가 외함(14)에 설치된 대물 렌즈(16) 위에 장착된다. 렌즈 차양(186) 대물 렌즈(16) 및 줌 렌즈(466) 모두를 가리도록 펼쳐진다. 줌 렌즈 제어메커니즘(467) 은 산란광 센서(468)에 연결되며, 줌 렌즈(466)를 작동시킨다. 산란광 센서(468)는 평면 센서(458)의 최외곽 주변부를 넘어 배치된다. 산란광 센서(468)가 과도한 산란광을 검출하면 산란광 센서는 렌즈 차양 제어 모터(469)로 신호를 송신하고 이에 의해 렌즈 차양(186)이 펼쳐진다.78 is a schematic view of a camera 465 having an automatic lens cancellation controller. A zoom lens 466 is mounted on the objective lens 16 provided on the enclosure 14. [ The lens shade 186 is unfolded to cover both the objective lens 16 and the zoom lens 466. The zoom lens control mechanism 467 is connected to the scattered light sensor 468 and activates the zoom lens 466. The scattered light sensor 468 is disposed beyond the outermost periphery of the plane sensor 458. When the scattered light sensor 468 detects excessive scattered light, the scattered light sensor transmits a signal to the lens canopy control motor 469, whereby the lens canopy 186 is unfolded.

도 79는 수동식 줌 및 렌즈 차양 제어기를 갖는 카메라(470)의 개략도이다. 대물 렌즈(16)는 도 78에 도시된 바와 같이 외함(14)에 위치한다. 줌 렌즈(466)는 대물 렌즈(16) 위에 장착된다. 평면 센서(458)가 대물 렌즈(16)로부터의 광을 수신한다. 수동 줌 제어 노브(471)가 외함에 장착 되는데, 이는 수동으로 제어되는 렌즈 차양(472)에 연결된다. 이 수동 제어 렌즈 차양도 또한 외함(14)에 장착되며 대물 렌즈(16) 및 줌 렌즈(466) 모두를 가리도록 펼쳐진다. 다른 실시예에서, 렌즈 차양 제어기는 줌 렌즈 통(barrel)에 기계적으로 연결된다.79 is a schematic diagram of camera 470 with a manual zoom and lens canopy controller. The objective lens 16 is located in the enclosure 14 as shown in Fig. The zoom lens 466 is mounted on the objective lens 16. A plane sensor 458 receives the light from the objective lens 16. A manual zoom control knob 471 is mounted on the enclosure, which is connected to the manually controlled lens sun shade 472. This manual control lens sun visor is also mounted on the enclosure 14 and unfolded to cover both the objective lens 16 and the zoom lens 466. In another embodiment, the lens awning controller is mechanically coupled to a zoom lens barrel.

도 80은 렌즈 차양 제어기의 제1실시예(474)를 도시한다. 줌 제어 버튼(476)이 제1 모터(478)에 연결되고, 이는 순차로 제1 기어 메커니즘(480), 및 하나 이상의 렌즈(482)에 연결된다. 줌 제어 버튼(476)은 또한 제2 모터(484)에 연결되고, 이는 순차로 제2 기어 기구(486), 및 줌 렌즈와 함께 제어되는 렌즈 차양(488)에 연결된다.80 shows a first embodiment 474 of the lens canopy controller. A zoom control button 476 is connected to the first motor 478, which in turn is coupled to the first gear mechanism 480, and to one or more lenses 482. The zoom control button 476 is also connected to a second motor 484, which in turn is connected to a second gear mechanism 486, and a lens awning 488 controlled with a zoom lens.

도 81은 렌즈 차양 제어기의 제2실시예(490)를 도시한다. 줌 제어 버튼(476)이 제1 모터(478)에 연결되고 이는 순차로 2트랙 기어 메커니즘(492), 그리고 하나 이상의 렌즈(482) 및 렌즈 차양(488)에 연결된다.81 shows a second embodiment 490 of the lens canopy controller. A zoom control button 476 is connected to the first motor 478 which in turn is connected to a two track gear mechanism 492 and one or more lenses 482 and lens canopy 488.

도 82는 렌즈 차양 제어기의 제3실시예(494)를 도시한다. 줌 제어 버튼(476)이 제1 모터(478)에 연결되고 이는 순차로 2레버 암(496), 그리고 하나 이상의 렌즈(482) 및 렌즈 차양(488)에 연결된다.82 shows a third embodiment 494 of the lens canopy controller. A zoom control button 476 is connected to the first motor 478 which in turn is connected to a two lever arm 496 and one or more lenses 482 and lens canopy 488.

도 83은 렌즈 차양 제어기의 제4실시예(498)를 나타낸다. 줌 제어 버튼 (476)이 제1 모터(478)에 연결되고 이는 순차로 단일 암(500), 그리고 하나 이상의 렌즈(482) 및 렌즈 차양(488)에 연결된다.83 shows a fourth embodiment 498 of the lens canopy controller. A zoom control button 476 is connected to the first motor 478 which in turn is connected to a single arm 500 and one or more lenses 482 and lens flanks 488.

도 84는 수동식 줌 렌즈 차양 제어기(502)의 개략도이다. 팬터그래프(503)가 외함(14), 줌 렌즈(466), 및 렌즈 차양(488)에 연결된다.
84 is a schematic diagram of a manual zoom lens canopy controller 502. Fig. A pantograph 503 is connected to the enclosure 14, the zoom lens 466, and the lens canopy 488.

XI. 비닝(binning) 및 압축(compression)
XI. Binning and compression,

도 85, 86, 87은 비닝(binning) 및 압축 방식을 설명하기 위한 도면이다. 도 85는 디지털 사진의 48개의 픽셀을 점유하고 있는 작은 부분의 모습(504)을 나타낸다. 백색 바탕(508)에 있는 흑색 점(506)은, 하얀 탁자보 위에 있는 후추알로 생각할 수 있다. 픽셀들은 A~H를 매긴 수평 축 및 1~6으로 매긴 수직 축으로 표시할 수 있다.Figures 85, 86 and 87 are diagrams for explaining binning and compression methods. 85 shows the appearance 504 of a small portion occupying 48 pixels of a digital photograph. The black dots 506 on the white background 508 can be thought of as pepper eggs on a white table beam. Pixels can be represented by horizontal axes, A to H, and vertical axes, 1 to 6.

도 86은 도 85에 나타낸 장면(504)의 다른 모습(512)으로서 48개 픽셀의 경계를 나타내는 격자선(514)이 표시되어 있다. 본 발명의 일 실시예에서는, 압축 알고리즘이 사용되며, 신호 처리기는 상기 작은 영상 부분을 좌에서 우로 그리고 위에서 아래로 (A1-C2 백색, D2-E2 흑색, F2-B3 백색, C3-F3 흑색, G3-B4 백색, F5-H6 백색, C4-F4 흑색, G4-C5 백색, D5-E5 백색, F5-H6 백색)와 같이 저장하고 인쇄한다. 다른 방식으로서, 각 비트를 따로따로 저장한다. 즉, (A1 백색, B1 백색, C1 백색, D1 백색, E1 백색, F1 백색, G1 백색, H1 백색, A2 백색, B2 백색, C2 백색, D2 흑색, E2 흑색, F2 백색, G2 백색, H2 백색, ...)과 같이 저장한다. 이 다른 방식을 사용하면, 처리 및 저장해야 할 데이터가 매우 많지만, 영상의 품질은 향상 되지 않는다.Fig. 86 shows another view 512 of the scene 504 shown in Fig. 85 as a grid line 514 showing the boundary of 48 pixels. In one embodiment of the invention, a compression algorithm is used and the signal processor converts the small image portion from left to right and from top to bottom (A1-C2 white, D2-E2 black, F2-B3 white, C3- Such as G3-B4 white, F5-H6 white, C4-F4 black, G4-C5 white, D5-E5 white, F5-H6 white). Alternatively, each bit is stored separately. That is, (A1 white, B1 white, C1 white, D1 white, E1 white, F1 white, G1 white, H1 white, A2 white, B2 white, C2 white, D2 black, E2 black, F2 white, G2 white, , ...). With this other method, there is a lot of data to be processed and stored, but the quality of the image is not improved.

도 87은 압축 방식 대신에 비닝(binning) 방식을 채용할 경우에 영상 변화를 표현하기 위해 필요한 데이터의 양이 얼마나 변하는지 나타내는 다른 모습(516)을 도시한다. 비닝 방식을 실시할 때에는, 인접 픽셀들에 의해 생성된 데이터를 함께 병합하여 큰 픽셀을 가상적으로 만든다. 비닝 방식은 일반적으로는 낮은 선명도를 만들며, "가상(virtual)" 픽셀당 더 많은 검출 응답이 발생된다. 따라서 부족한 조명 조건에서의 카메라의 성능을 향상시킨다. 도 87에서는 가장 가까운 4개의 화소가 병합되면, 이에 신호 처리기는 영상을 (A1-A3 백색, C3-E3 흑색, G3-H5 백색)으로 저장하고 인쇄한다. 도 87에서, 각 가상 픽셀을 구별하기 위해 픽셀 코드를 사용하였다. 예를 들어, 도 87의 오른쪽 상단에 있는 첫 번째 가상 픽셀은 픽셀 코드 A1-A3로 구별된다. 픽셀 코드는 각 가상 픽셀의 상단 왼쪽 모서리 및 하단 왼쪽 모서리의 수평 및 수직 좌표(518)를 연결하여 구성한다. 따라서, 도 87에 도시된 가상 픽셀의 맨 윗줄에 있는 4개의 가상 픽셀의 코드는 A1-A3, C1-C3, E1-E3, G1-G3이 된다.FIG. 87 shows another view 516 showing how the amount of data necessary for expressing the image change changes when a binning method is adopted instead of the compression method. When performing the binning method, data generated by adjacent pixels are merged together to create a large pixel virtually. The binning method generally produces a lower sharpness, resulting in more detection responses per "virtual" pixel. Thus improving the performance of the camera in poor lighting conditions. In Fig. 87, when the four closest pixels are merged, the signal processor stores and prints the image (A1-A3 white, C3-E3 black, G3-H5 white). In Fig. 87, a pixel code is used to distinguish each virtual pixel. For example, the first virtual pixel at the upper right of Figure 87 is identified by pixel codes A1-A3. The pixel code is constructed by connecting the upper left corner of each virtual pixel and the horizontal and vertical coordinates 518 of the lower left corner. Therefore, the codes of the four virtual pixels in the top row of the virtual pixel shown in FIG. 87 are A1-A3, C1-C3, E1-E3, and G1-G3.

도 87에 도시된 방식은 낮은 조명 조건에서의 성능을 향상시킬 뿐만 아니라, 가상 픽셀당 더 많은 광자가 캡처되므로 영상의 선명도를 증가시킨다. 처리 시간 과 저장 용량이 줄어든다. 또한 이 방식은 ISO, 즉, 픽셀의 감도가 높을 때에 부족한 조명 상황에서 발생되는 노이즈를 줄일 수 있다.
The method shown in FIG. 87 not only improves the performance in low light conditions, but also increases the sharpness of the image because more photons per virtual pixel are captured. Processing time and storage capacity are reduced. In addition, this method can reduce the noise generated in the case of ISO, that is, when the sensitivity of the pixel is high, in an insufficient illumination condition.

XII. 미니센서 의 아치형 배열
XII. Arched array of mini sensors

도 88은 교정용 광학요소와 결합된 개별적 미니센서의 아치형 배열을 포함하는 본 발명의 다른 실시예(520)를 나타내는 도면이다. 아치형 배열(522)에는 다수의 미니센서(524)가 포함되는데, 각 미니센서(524)는 신호 처리기(22)로 공급되는 출ㅍ력(526)을 갖는다. 각 미니센서(524)는 곡선 또는 원호 형상으로 정렬되며, 카메라 내부에 배치된다. 각 미니센서(524)는 구성의 용이성을 위해서 간극을 두고 분리 구성된다. 교정용 광학 요소(528)는 아치형 배열(522) 위에 배치된다. 교정용 광학 요소(528)는 다수의 세그먼트(530)를 포함하고 있다. 이들 각 세그먼트(530)는 대물 렌즈(16)에서 출사되는 광을, 배열(522) 내의 하나의 미니센서(524)로 전달한다. 88 is a view of another embodiment 520 of the present invention including an arcuate array of discrete mini sensors combined with a calibration optic element. The arcuate array 522 includes a plurality of mini sensors 524 each of which has an output 526 that is fed to the signal processor 22. Each mini-sensor 524 is arranged in a curved or arcuate shape and is disposed inside the camera. Each mini-sensor 524 is separated and configured with a gap for ease of configuration. The calibration optical element 528 is disposed above the arcuate array 522. The calibration optical element 528 includes a plurality of segments 530. Each of these segments 530 transfers the light emitted from the objective lens 16 to one mini-sensor 524 in the array 522.

이 실시예에 의해서, 센서 재료를 구부릴 필요없이 그리고 가동 부분이 전혀 없이도, 곡면 또는 오목한 센서의 모든 이점을 얻을 수 있다. 카메라에 하나의 평면 센서를 사용하는 경우에는, 광선이 평면 센서의 주변부에 도달하기 위해서는 더 멀리 진행하고 더 작은 각으로 구부러져야 한다. 그 결과 주변부에서 빛이 약해져서 더 많은 색수차(무지개 현상)가 발생된다.With this embodiment all the advantages of a curved or concave sensor can be obtained without the need to bend the sensor material and without any moving parts. If the camera uses one plane sensor, the ray must travel further and be bent at a smaller angle to reach the periphery of the plane sensor. As a result, the light is weakened at the periphery, causing more chromatic aberration (rainbow phenomenon).

이 실시예에서, 카메라에 들어가는 광선은 대물 렌즈와 센서 간의 거리가 거의 동일하게 센서에 조사된다. 광선이 센서에 조사되는 각도가 평균적으로 직각에 가깝게 된다. 이 실시예에 의해서 렌즈 설계자는 빠른 렌즈(fast lens)를 만드는 것이 가능해진다. 이 빠른 렌즈는 보다 많은 광자를 캡처하여서, 다수의 부족한 조명 조건하에서도 플래시를 사용할 필요가 없어진다.In this embodiment, the light rays entering the camera are irradiated to the sensor with a substantially equal distance between the objective lens and the sensor. The angle at which the light beam is irradiated to the sensor is close to a right angle on average. According to this embodiment, the lens designer can make a fast lens. This fast lens captures more photons, eliminating the need to use the flash under a number of poor lighting conditions.

또 다른 대안적 실시예에서는, 상기 다수의 배열체를 평행하게 배치할 수도 있다.In another alternative embodiment, the plurality of arrangements may be arranged in parallel.

또다른 대안적 실시예에서는 비아 또는 백플레인 없이도 전기적 연결이 가능하다. 예를 들어 미니센서와 신호 처리기 사이, 대물렌즈와 교정용 광학요소의 다수의 세그먼트, 다수의 세그먼트와 미니 센서 사이에 비아 또는 백플레인 없이도 전기적으로 연결될 수 있다. In yet another alternative embodiment, an electrical connection is possible without a via or backplane. For example, between a mini-sensor and a signal processor, a plurality of segments of an objective lens and a calibration optical element, a plurality of segments and a mini-sensor without a via or a backplane.

본 발명에 대해서 다수의 바람직한 실시예를 참조하여 상세하게 설명하였지만, 본 발명이 속하는 관련분야에서 통상의 지식을 가진 자는 첨부한 특허청구범위의 사상 및 범위를 벗어나지 않고 다양한 변형과 개량을 할 수 있음을 알 것이다. 이상에서 개시한 "이동하는 광학부를 갖는 곡면 센서 배열 카메라"를 제공하는 다양한 대안들은, 독자에게 본 발명의 바람직한 실시예를 이해시키기 위하여 설명한 것일 뿐, 본 발명 또는 청구 범위의 한계를 제한하기 위한 것이 아니다.While the present invention has been particularly shown and described with reference to preferred embodiments thereof, those skilled in the art will appreciate that various modifications and improvements can be made thereto without departing from the spirit and scope of the appended claims. . Various alternatives for providing a curved sensor array camera having a moving optic as described above are disclosed for the purpose of understanding the preferred embodiments of the present invention to those skilled in the art to limit the scope of the present invention or the claims no.

10. 곡면 센서를 갖는 카메라
12. 곡면 센서
14. 외함
16. 대물 렌즈
18. 입사광
20. 센서로부터의 전기 출력
22. 신호 처리기
24. 사용자 조작기
26. 배터리
28. 메모리
30. 카메라 출력
32. 홑눈
34. 홑눈 사이의 간극
36. 관통홀
38. 배선판
40. 인접한 꽃잎 형태의 세그먼트로 제작한 곡면 센서
42. 꽃잎 형태의 세그먼트
43a. 제1심형
43b. 기재
43c. 제1 열변형성 시트
43d. 심형 위에 있는 변형성 내료의 돔 부분
43e. 곡면 센서의 반구형 기저부
43f. 제2 열변형성 시트
43g. 제2심형
43h. 포트
43i. 빈 영역
43j. 히터
43k. 곡면 센서의 반구형 기저부
43l. 기저부(43e 또는 43k)에 형성된 센서 픽셀
44. 카메라 모니터
46. 대체로 균일한 픽셀 밀도를 갖는 종래의 센서
48. 중앙부를 향해 높은 픽셀 밀도를 갖는 센서
50. 픽셀
52. 차양 오므림
54. 차양 펼쳐짐
56. 다중 렌즈 카메라 조립체
58. 대물 렌즈
60. 거울 내장 카메라/렌즈의 조합
50. 기본 대물 렌즈
52. 보조 대물 렌즈
66. 제1센서
68. 제2센서
70. 거울
72. 측면 설치 센서
74. 원래 위치의 센서
76. 회전된 위치의 센서
78. 원래 위치의 센서
80. 이동한 위치의 센서
82. 센서의 다른 실시예
84. 센서의 다른 실시예
86. 센서의 다른 실시예
88. 센서의 다른 실시예
90. 센서의 일실시예의 뒷면
92. 나선형 도체
94. 센서 연결점
96. 처리기 연결점
98. 센서의 일실시예의 뒷면
100. 아코디언형 도체
102. 센서 연결점
104. 처리기 연결점
106. 센서의 일실시예의 뒷면
108. 방사상 도체
110. 브러시
112. 브러시 접촉점
114. 환형 고리
116. 센서의 중심, 처리기 연결점
118. 무선 연결의 개략도
120. 송신기
122. 수신기
124. 처리기
150. 카메라
154. 외함
156. 렌즈
160. 센서
162. 홑눈
164. 간극
170. 중앙부 사각형
172. 둘러싸고 있는 사각형
176. 둘러싸고 있는 사각형
180. 차양 신축 장치
182. 내측 차양부재
184. 가동 차양부재
186. 외측 가동 차양부재
190. 렌즈 이동 메커니즘
200. 영상 처리기
202. 센서 캡쳐 장치
204. 자동 장치
206. 픽셀 밀도 정규화 장치
208. 영상 처리 엔진
210. 디스플레이/LCD 컨트롤러
212. 압축 및 저장 컨트롤러
250. 카메라
256. 렌즈
260. 센서
270. 중앙부 홑눈
272. 둘러싸고 있는 홑눈
274. 셔터 제어
280. 렌즈 차양 작동장치
290. 초점/안정화 작동장치
292. 렌즈 이동
300. 복합 장치의 제1실시예
300a. 복합 장치의 제1실시예
300b. 복합 장치의 제1실시예
302. 외함
304. 마이크로 컨트롤러
305a. 정면
305b. 후면
306. 디스플레이 화면
308a. 터치스크린 인터페이스
308B. 사용자 인터페이스
310. 전원 및/또는 데이터 단자
314. 스피커
315. 안테나
330. 다른 실시예
334. 다른 실시예
338. 다른 실시예
340. 다른 실시예
342. 고정형 평면 센서와 이동형 렌즈의 개략도
344. 이동형 렌즈
346. 고정형 평면 센서
348. 광로
350. 도 51을 위에서 본 그림
352. 고정형 곡면 센서와 이동형 렌즈의 개략도
354. 고정형 곡면 센서
356. 도 53을 위에서 본 그림
358. 이동형 평면 센서와 고정형 렌즈의 개략도
360. 이동형 평면 센서
362. 고정형 렌즈
364. 도 55를 위에서 본 그림
365. 센서의 원형 이동을 일으키는 부품의 개략도
366. 회전 원판
367. 연결봉
368. 부착점
370. 전기 모터
372. 모터 회전축
373. 도 57의 사시도
374. 이동형 곡면 센서 위의 고정형 렌즈의 개략도
376. 이동형 곡면 센서
377. 도 59를 위에서 본 그림
378. 렌즈를 이동시키는 부품의 개략도
380. 밴드
382. 스프링
384. 캠이 접촉되어 있는 스프링
386. 제1캠
388. 제2캠
390. 제1 전기 모터
392. 제2 전기 모터
394. 센서 회전시의 9가지 모습
396. 센서
398. 픽셀
400. 렌즈와 센서의 조합
402. 렌즈
404. 평면 센서
406. 중심축
408. 광선
410. 요소들의 조합
412. 간극
414. 첫 번째 노출
416. 영상 프레임
418. 노출 시작시의 어린이의 손
420. 노출 시작시의 야구공
422. 노출 종료
424. 노출 종료시의 어린이의 손
426. 노출 종료시의 야구공
428. 영상 안정화 적용시 노출 시작시의 영상
430. 영상 안정화 적용시 노출 종료시의 영상
432. 육안으로 본 고양이 영상
434. 카메라 센서
436. 미니센서
438. 간극
440. 고양이 영상
442. 영상의 누락 부분
444. 미니센서에 조사된 고양이 영상의 일부
446. 음영표시된 누락 부분
448. 두 번째 노출 영상의 누락 부분
450. 합성 영상
452. 광학식 영상 안정화 장치를 갖는 카메라
454. 광학식 영상 안정화 회로
456. 전자식 영상 안정화 장치를 갖는 카메라
458. 평면 센서
460. 전자식 영상 안정화 회로
462. 전자식 영상 안정화 센서
464. 작동기
466. 수동식 줌 및 렌즈 차양 제어기를 갖는 카메라
468. 줌렌즈
470. 수동식 줌 제어
472. 수동으로 조절되는 렌즈 차양
474. 렌즈 차양 제어기의 제1 실시예
476. 줌 제어기
478. 모터
480. 제1 기어 메커니즘
482. 렌즈 요소
484. 모터
486. 제2 기어 메커니즘
488. 렌즈 차양
490. 렌즈 차양 제어기의 제2 실시예
492. 2트랙 기어 메커니즘
494. 렌즈 차양 제어기의 제3 실시예
496. 레버 암
498. 렌즈 차양 제어기의 제4 실시예
500. 단일 암 렌즈 차양 제어기
502. 수동식 줌 및 렌즈 차양 제어기
504. 백색 바탕 상에 있는 흑색 물체의 모습
506. 흑색 물체
508. 백색 바탕
510. 수평 및 수직 축
512. 격자선이 있는 백색 바탕 위에 있는 흑색 물체의 모습
514. 격자선
516. 비닝된 가상 픽셀을 나타내는, 백색 바탕 위에 있는 흑색 물체의 모습
518. 비닝된 가상 픽셀의 축
520. 교정용 광학 요소와 미니센서의 아치형 배열
522. 미니센서의 배열
524. 미니센서
526. 미니센서 출력
528. 교정용 광학 요소
530. 교정용 광학 요소의 세그먼트
10. Camera with curved sensor
12. Surface sensor
14. Enclosure
16. Objective lens
18. Incident light
20. Electrical output from sensor
22. Signal Processor
24. User Manipulators
26. Battery
28. Memory
30. Camera output
32. One eye
34. Clearance between single eyes
36. Through hole
38. Wiring board
40. Curved sensor made of adjacent petal shaped segment
42. Segment of petal shape
43a. First heart
43b. materials
43c. The first heat-
43d. The dome portion of the deformable material on the core
43e. Hemispherical base of curved sensor
43f. The second heat-
43 g. Second heart
43h. port
43i. Empty area
43j. heater
43k. Hemispherical base of curved sensor
43l. The sensor pixel < RTI ID = 0.0 >
44. Camera Monitors
46. Conventional sensor having a generally uniform pixel density
48. Sensor with high pixel density towards the center
50 pixels
52. Shading ridge
54. Shroud spread
56. Multiple lens camera assembly
58. Objective lens
60. Mirror Built-in Camera / Lens Combination
50. Basic Objective Lens
52. Auxiliary objective lens
66. The first sensor
68. Second sensor
70. Mirrors
72. Side Mount Sensor
74. Sensor in its original position
76. Sensor in the rotated position
78. Sensor in original position
80. Sensor at the moved position
82. Another embodiment of the sensor
84. Another embodiment of the sensor
86. Another embodiment of the sensor
88. Another embodiment of the sensor
90. The backside of one embodiment of the sensor
92. Helical conductors
94. Sensor connection point
96. Processor connection point
98. The back of one embodiment of the sensor
100. Accordion-type conductor
102. Sensor connection point
104. Processor connection point
106. The backside of one embodiment of the sensor
108. Radial conductor
110. Brush
112. Brush contact point
114. Annular ring
116. Center of sensor, processor connection point
118. Schematic of wireless connection
120. Transmitter
122. Receiver
124. Processor
150. Camera
154. Enclosure
156. Lens
160. Sensor
162. One eye
164. Clearance
170. Center square
172. Surrounding rectangle
176. Surrounding rectangle
180. Retractable shafts
182. Inner canopy member
184. Movable shoelace member
186. Outer movable awning member
190. Lens movement mechanism
200. Image processor
202. Sensor Capture Device
204. Automatic devices
206. Pixel density normalizer
208. Image Processing Engine
210. Display / LCD controller
212. Compression and Storage Controller
250. Camera
256. Lens
260. Sensor
270. Center of the unicorn
272. Surrounding icle
274. Shutter control
280. Lens awning device
290. Focus / stabilization actuating device
292. Lens movement
300. First Embodiment of Composite Device
300a. The first embodiment of the composite apparatus
300b. The first embodiment of the composite apparatus
302. Enclosure
304. Microcontroller
305a. face
305b. back side
306. Display Screen
308a. Touch screen interface
308B. User interface
310. Power and / or data terminal
314. Speaker
315. Antennas
330. Other Embodiments
334. Other Embodiments
338. Other Embodiments
340. Other Embodiments
342. Schematic of fixed-type flat-surface sensor and movable lens
344. Movable Lenses
346. Fixed Planar Sensors
348. Optical path
350. Figure 51
352. Schematic of fixed curved surface sensor and movable lens
354. Fixed Surface Sensor
356. Fig. 53
358. Schematic diagram of mobile type planar sensor and fixed type lens
360. Movable Planar Sensor
362. Fixed Lens
Figure 36 Figure 55
365. Schematic diagram of the parts causing the circular movement of the sensor
366. Rotating disc
367. Connecting Rods
368. Attachment point
370. Electric Motors
372. Motor rotation axis
373. FIG. 57 is a perspective view
374. Schematic of a fixed lens on a mobile surface sensor
376. Movable Surface Sensor
377. Figure 59
378. Schematic view of parts moving the lens
380. Band
382. Spring
384. A spring in contact with the cam
386. First cam
388. Second cam
390. First electric motor
392. Second electric motor
394. 9 views when rotating the sensor
396. Sensor
398. Pixel
400. Combination of lens and sensor
402. Lens
404. Planar Sensors
406. Center axis
408. Light rays
410. Combination of elements
412. Clearance
414. First Impressions
416. Picture frame
418. Children's hand at the beginning of exposure
420. Baseball ball at the beginning of exposure
422. End of exposure
424. A child's hand at the end of exposure
426. Baseball ball at the end of exposure
428. Image stabilization application
430. Image stabilization application
432. Cat images seen with the naked eye
434. Camera sensor
436. Mini Sensor
438. Clearance
440. Cat Videos
442. Missing part of image
444. A part of the cat image illuminated by the mini-sensor
446. Missing Shaded Parts
448. Missing part of second exposure image
450. Composite video
452. Camera with Optical Image Stabilizer
454. Optical image stabilization circuit
456. A camera having an electronic image stabilization device
458. Planar Sensors
460. Electronic image stabilization circuit
462. Electronic image stabilization sensor
464. Actuators
466. Camera with manual zoom and lens canopy controller
468. Zoom lens
470. Manual zoom control
472. Manually adjusted lens canopy
474. First Embodiment of Lens Shade Controller
476. Zoom controller
478. Motors
480. 1st Gear Mechanism
482. Lens element
484. Motors
486. Second Gear Mechanism
488. Lens canopy
490. Second Embodiment of Lens Shade Controller
492. Two-track gear mechanism
494. Third Embodiment of Lens Shade Controller
496. Lever arm
498. Fourth Embodiment of Lens Shade Controller
500. Single arm lens canopy controller
502. Manual zoom and lens canopy controller
504. The appearance of a black object on a white background
506. A black object
508. White background
510. Horizontal and vertical axes
512. A black object on a white background with grid lines
514. Grid lines
516. A black object on a white background representing a binned virtual pixel.
518. The axis of the binned virtual pixel
520. Arched array of optical elements for calibration and mini-sensor
522. Array of mini sensors
524. Mini Sensor
526. Mini sensor output
528. Optical elements for calibration
530. Segment of optical element for calibration

Claims (45)

외함; 광학 요소; 곡면 센서; 상기 곡면 센서에 연결된 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 간극에 의해 분리된 다수의 미니센서를 포함하고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 광학식 영상 안정화 회로에 연결되고;
상기 신호 처리기는 상기 광학식 영상 안정화 회로가 활성화되어 있는 동안에 제1 노출을 기록하고;
상기 제1 노출에는 상기 다수의 미니센서에 조사되는 제1 영상의 해당 부분만이 포함되고;
상기 신호 처리기는 상기 광학식 영상 안정화 회로가 활성화되어 있는 동안에 제2 노출을 기록하고;
상기 제2 노출은 상기 제1 노출보다 나중에 수행되고;
상기 제2 노출에는 상기 다수의 미니센서에 조사되는 제2 영상의 해당 부분만이 포함되고;
상기 제1 및 제2 노출은, 상기 각각의 제1 및 제2 노출에서 누락된 부분을 검출하기 위하여 상기 신호 처리기에 의해 비교되고;
합성 영상이 상기 제1 및 상기 제2 노출을 사용하여 상기 신호 처리기에 의해 생성되는,
Enclosure; Optical elements; Curved surface sensor; And a signal processor coupled to the curved surface sensor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
Wherein the curved surface sensor comprises a plurality of mini sensors separated by a gap;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
The signal processor is connected to an optical image stabilization circuit;
Said signal processor recording a first exposure while said optical image stabilization circuit is active;
Wherein the first exposure includes only a corresponding portion of a first image illuminated to the plurality of mini-sensors;
The signal processor records a second exposure while the optical image stabilization circuit is active;
The second exposure being performed later than the first exposure;
Wherein the second exposure includes only a corresponding portion of a second image illuminated to the plurality of mini-sensors;
Wherein the first and second exposures are compared by the signal processor to detect missing portions in the respective first and second exposures;
Wherein a composite image is generated by the signal processor using the first and second exposures,
제1항에 있어서, 상기 센서는 전체적으로 다수의 세그먼트를 포함하는 장치.2. The apparatus of claim 1, wherein the sensor comprises a plurality of segments as a whole. 제2항에 있어서, 상기 다수의 세그먼트는 곡면 센서에 근접하도록 배치되는 장치.3. The apparatus of claim 2, wherein the plurality of segments are disposed proximate a curved sensor. 제1항에 있어서, 상기 곡면 센서는 직선과 완전히 동일선상에 있지 않는 2차원 프로파일을 갖는 장치.The method according to claim 1, wherein the curved surface sensor is not completely on the same line as the straight line A device having a two dimensional profile. 제1항에 있어서, 상기 곡면 센서는 초박형 실리콘으로 제조되는 장치. The apparatus of claim 1, wherein the curved surface sensor is fabricated from ultra-thin silicon. 제5항에 있어서, 상기 초박형 실리콘은 1차원으로 10 내지 250 미크론의 범위에 있는 장치.6. The apparatus of claim 5, wherein the ultra-thin silicon is in the range of 10 to 250 microns in one dimension. 제1항에 있어서, 상기 곡면 센서는 다결정 실리콘으로 제조되는 장치. The apparatus of claim 1, wherein the curved surface sensor is fabricated from polycrystalline silicon. 제1항에 있어서, 상기 다수의 픽셀은 상기 곡면 센서 상에 변화하는 밀도로 배열되는 장치.The apparatus of claim 1, wherein the plurality of pixels are arranged at varying densities on the curved sensor. 제1항에 있어서, 상기 센서는 전반적으로 상기 센서의 중앙부에 가까운 곳에서 상대적으로 높은 픽셀 밀도를 갖도록 구성되는 장치.2. The apparatus of claim 1, wherein the sensor is configured to have a relatively high pixel density near the center of the sensor as a whole. 제1항에 있어서, 상기 센서는 전반적으로 상기 센서의 주변부에 가까운 곳에서 상대적으로 낮은 픽셀 밀도를 갖도록 구성되는 장치.The apparatus of claim 1, wherein the sensor is configured to have a relatively low pixel density near the periphery of the sensor as a whole. 제1항에 있어서,
상기 다수의 세그먼트는 상기 다수의 세그먼트들의 각각 사이에 간극을 형성하고;
상기 간극은 전기 커넥터를 위한 통로로서 사용되는 장치.
The method according to claim 1,
The plurality of segments defining a gap between each of the plurality of segments;
Wherein said gap is used as a passageway for an electrical connector.
제1항에 있어서, 상기 센서는 전반적으로 상기 센서의 중앙부에 가까운 곳에서 상대적으로 높은 픽셀 밀도를 갖도록 구성되는 장치.2. The apparatus of claim 1, wherein the sensor is configured to have a relatively high pixel density near the center of the sensor as a whole. 제1항에 있어서, 상기 센서는 전반적으로 상기 센서의 주변부에 가까운 곳에서 상대적으로 낮은 픽셀 밀도를 갖도록 구성되는 장치.The apparatus of claim 1, wherein the sensor is configured to have a relatively low pixel density near the periphery of the sensor as a whole. 제1항에 있어서, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도는, 상대적으로 높은 영상 해상도를 유지하면서도, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도를 이용하여서 망원 촬영으로의 주밍을 가능케 하는 장치.2. The method of claim 1, wherein a relatively high pixel density, generally near the center of the sensor, provides a relatively high pixel density, generally near the center of the sensor, while maintaining a relatively high image resolution. Thereby enabling zooming to telephoto shooting. 외함; 광학 요소; 센서를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 센서는 상기 외함 내에 장착되고;
상기 센서는 상기 광학 요소와 정렬되고;
상기 센서는 상기 영상을 향상시키기 위하여 상기 복사선 열의 수집 중에 의도적으로 이동되고;
상기 센서는 다수의 픽셀을 포함하고;
상기 다수의 픽셀은 상기 센서 상에 변화하는 밀도로 배열되고;
상기 센서는 다수의 관통홀을 통해 배선판에 연결되는 다수의 연결부를 갖고;
상기 배선판은 영상을 기록하는 신호 처리기로의 출력을 갖는 장치.
Enclosure; Optical elements; Sensor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The sensor being mounted in the enclosure;
The sensor being aligned with the optical element;
The sensor being intentionally moved during collection of the radiation beam to enhance the image;
The sensor comprising a plurality of pixels;
The plurality of pixels being arranged at varying densities on the sensor;
The sensor has a plurality of connection portions connected to the wiring board through a plurality of through holes;
Wherein the wiring board has an output to a signal processor for recording an image.
외함; 광학 요소; 센서; 를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 센서는 상기 외함 내에 장착되고;
상기 센서는 상기 광학 요소와 정렬되고;
상기 센서는 다수의 픽셀을 포함하고;
상기 다수의 픽셀은 상기 센서 상에 변화하는 밀도로 배열되고;
향상된 영상을 생성하기 위하여 신호 처리기에 전자식 안정화 회로가 부착되는 장치.
Enclosure; Optical elements; sensor; , ≪ / RTI &
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The sensor being mounted in the enclosure;
The sensor being aligned with the optical element;
The sensor comprising a plurality of pixels;
The plurality of pixels being arranged at varying densities on the sensor;
Wherein an electronic stabilization circuit is attached to the signal processor to produce an enhanced image.
외함; 광학 요소; 센서; 줌 렌즈; 줌 렌즈 제어 메커니즘; 자동 조절 렌즈 차양을 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 센서는 상기 외함 내에 장착되고;
상기 센서는 상기 광학 요소와 정렬되고;
상기 줌 렌즈는 상기 외함에 장착되고;
상기 줌 렌즈 제어 메커니즘은 상기 줌 렌즈에 연결되고;
상기 자동 조절 렌즈 차양은, 망원 노출시에는 상기 자동 조절 렌즈 차양이 펼쳐지고 광각 노출시에는 오므라지도록 상기 줌 렌즈 제어 메커니즘에 연결되고;
상기 자동 조절 렌즈 차양은 상기 외함의 외부에 장착되는 장치.
Enclosure; Optical elements; sensor; A zoom lens; Zoom lens control mechanism; Including automatic adjustment lens shade,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The sensor being mounted in the enclosure;
The sensor being aligned with the optical element;
The zoom lens being mounted to the enclosure;
The zoom lens control mechanism is connected to the zoom lens;
Wherein the automatic adjustment lens shade is connected to the zoom lens control mechanism such that when the telephoto exposure is performed, the automatic adjustment lens shade is unfolded and when the wide angle is exposed, the automatic adjustment lens shade is unfolded;
Wherein the automatic adjustment lens shade is mounted outside the enclosure.
제17항에 있어서, 센서 프레임의 외부에 장착된 산란광 센서; 모터를 추가로 포함하되,
상기 산란광 센서는 망원 영상의 크기를 감지하고;
상기 모터는 상기 산란광 센서에 연결되고;
상기 모터는 상기 렌즈 차양에 연결되고;
상기 산란광 센서가 상기 센서의 외부에서 산란되는 광을 검출하면, 상기 모터는 미광으로부터 상기 광학 요소를 차단하도록 상기 렌즈 차양을 펼치는 장치.
18. The apparatus of claim 17, further comprising: a scattered light sensor mounted outside the sensor frame; Further comprising a motor,
The scattered light sensor senses the size of the telephoto image;
The motor being connected to the scattered light sensor;
The motor being connected to the lens awning;
And when the scattered light sensor detects light scattered outside the sensor, the motor expands the lens awake to block the optical element from stray light.
제18항에 있어서, 기어 메커니즘을 추가로 포함하되,
상기 기어 메커니즘은 망원 위치와 광각 위치 사이에서 상기 줌 렌즈를 이동시키기 위해 상기 외함의 내부에 장착되는 장치.
19. The apparatus of claim 18, further comprising a gear mechanism,
Wherein the gear mechanism is mounted within the enclosure to move the zoom lens between a telephoto position and a wide angle position.
외함; 광학 요소; 센서; 줌 렌즈; 수동식 줌 렌즈 제어 메커니즘; 수동 조절 렌즈 차양을 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 센서는 상기 외함 내에 장착되고;
상기 센서는 상기 광학 요소와 정렬되고;
상기 줌 렌즈는 상기 외함에 장착되고;
상기 수동식 줌 렌즈 제어 메커니즘은 상기 줌 렌즈에 연결되고;
상기 수동 조절 렌즈 차양은 상기 외함의 외부에 상기 광학 요소의 위에 장착되고;
상기 수동 조절 렌즈 차양은, 망원 촬영시에는 상기 수동 조절 렌즈 차양이 펼쳐지고 광각 촬영시에는 오므라지도록 상기 수동식 줌 렌즈 제어 메커니즘에 연결되는 장치.
Enclosure; Optical elements; sensor; A zoom lens; Manual zoom lens control mechanism; Including manual adjustment lens shade,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The sensor being mounted in the enclosure;
The sensor being aligned with the optical element;
The zoom lens being mounted to the enclosure;
The manual zoom lens control mechanism is connected to the zoom lens;
The manual adjustment lens canopy being mounted on the outside of the enclosure above the optical element;
Wherein the manual adjustment lens sunshade is connected to the manual zoom lens control mechanism such that the manual adjustment lens sunshade unfolds at the time of telephoto shooting and is deflected at the time of wide angle shooting.
외함; 광학 요소; 곡면 센서를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 곡면 센서는 상기 영상을 향상시키기 위하여 상기 복사선 열의 수집 중에 의도적으로 이동되고;
상기 곡면 센서는 다수의 픽셀을 포함하고;
상기 곡면 센서는 다수의 관통홀을 통해 배선판에 연결되는 다수의 연결부를 갖고;
상기 배선판은 영상을 기록하는 신호 처리기로의 출력을 갖는 장치.
Enclosure; Optical elements; A curved surface sensor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
Wherein the curved surface sensor is intentionally moved during collection of the radiation train to enhance the image;
Wherein the curved surface sensor comprises a plurality of pixels;
The curved surface sensor has a plurality of connection portions connected to the wiring board through a plurality of through holes;
Wherein the wiring board has an output to a signal processor for recording an image.
외함; 광학 요소; 곡면 센서; 전자식 영상 안정화 센서; 작동기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 전자식 영상 안정화 센서는 상기 외함 내부에 장착되고;
상기 전자식 영상 안정화 센서는 노출이 수행될 때에 상기 외함의 원치않는 움직임을 감지하고;
상기 작동기는 상기 전자식 영상 안정화 센서에 전기적으로 연결되고;
상기 작동기는 상기 곡면 센서에 기계적으로 연결되고;
상기 작동기는 상기 전자식 영상 안정화 센서에 의해 감지된 상기 외함의 원치않는 움직임을 보정하기 위하여 상기 곡면 센서를 이동시키고;
상기 곡면 센서는 다수의 관통홀을 통해 배선판에 연결되는 다수의 연결부를 갖고;
상기 배선판은 영상을 기록하는 신호 처리기로의 출력을 갖는 장치.
Enclosure; Optical elements; Curved surface sensor; Electronic image stabilization sensor; An actuator,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
The electronic image stabilization sensor is mounted inside the enclosure;
The electronic image stabilization sensor senses unwanted movement of the enclosure when exposure is performed;
The actuator being electrically connected to the electronic image stabilization sensor;
The actuator being mechanically connected to the curved surface sensor;
The actuator moving the curved surface sensor to correct undesired movement of the enclosure sensed by the electronic image stabilization sensor;
The curved surface sensor has a plurality of connection portions connected to the wiring board through a plurality of through holes;
Wherein the wiring board has an output to a signal processor for recording an image.
제22항에 있어서,
상기 센서는 다수의 픽셀을 포함하고;
상기 다수의 픽셀은 상기 곡면 센서 상에 변화하는 밀도로 배열되는 장치.
23. The method of claim 22,
The sensor comprising a plurality of pixels;
Wherein the plurality of pixels are arranged at varying densities on the curved sensor.
카메라를 구비하는 단계 - 상기 카메라는 센서를 포함하고, 상기 카메라는 광학부를 포함하고, 상기 센서는 다수의 간극에 의해 전체적으로 경계를 이루고 있는 다수의 홑눈을 포함하고, 상기 카메라는 상기 광학부의 움직임을 의도적으로 일으키는 광학부 움직임 수단을 포함함;
제1 노출을 기록하는 단계;
제2 노출이 수행되는 동안에 상기 광학부 움직임 수단을 작동시켜서 상기 광학부의 의도적 움직임을 일으키는 단계;
제2 노출을 수행하는 단계;
상기 센서의 상기 다수의 간극에 의하여 원하는 영상에서 누락된 부분을 검출하기 위하여 상기 제1 및 제2 노출을 비교하는 단계;
상기 제1 및 상기 제2 노출을 사용하여 완전한 영상을 합성하는 단계를 포함하는 방법.
The method comprising the steps of: providing a camera, the camera comprising a sensor, the camera comprising an optic, the sensor comprising a plurality of single eyes bounded entirely by a plurality of gaps, An optical part moving means which intentionally causes the optical part to move;
Recording a first exposure;
Activating the optical part moving means during a second exposure to cause an intentional movement of the optical part;
Performing a second exposure;
Comparing the first and second exposures to detect a missing portion in a desired image by the plurality of gaps in the sensor;
And combining the complete image using the first and second exposures.
제24항에 있어서, 상기 광학부 움직임 수단은 상기 광학부가 상기 곡면 센서 쪽으로 움직이도록 의도적으로 움직임을 일으키는 방법.25. The method of claim 24, wherein the optical portion motion means deliberately causes the optical portion to move toward the curved surface sensor. 제24항에 있어서, 상기 센서는 전반적으로 상기 센서의 중앙부에 가까운 곳에서 상대적으로 높은 픽셀 밀도를 갖도록 구성되는 방법. 25. The method of claim 24, wherein the sensor is configured to have a relatively high pixel density near the center of the sensor as a whole. 제24항에 있어서, 상기 센서는 전반적으로 상기 센서의 주변부에 가까운 곳에서 상대적으로 낮은 픽셀 밀도를 갖도록 구성되는 방법.25. The method of claim 24, wherein the sensor is configured to have a relatively low pixel density near the periphery of the sensor as a whole. 제24항에 있어서, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도는, 상대적으로 높은 영상 해상도를 유지하면서도, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도를 이용하여서 망원 촬영으로의 주밍을 가능케 하는 방법.25. The method of claim 24, wherein a relatively high pixel density, generally near the center of the sensor, provides a relatively high pixel density near the center of the sensor as a whole, while maintaining a relatively high image resolution. Thereby enabling zooming to telephoto shooting. 카메라를 구비하는 단계 - 상기 카메라는 센서를 포함하고, 상기 카메라는 광학부를 포함하고, 상기 센서는 다수의 간극에 의해 전체적으로 경계를 이루고 있는 다수의 홑눈을 포함하고, 상기 카메라는 상기 광학부의 움직임을 의도적으로 일으키는 광학부 움직임 수단을 포함함;
전자식 영상 안정화 센서를 구비하는 단계 - 상기 전자식 영상 안정화 센서는 상기 외함 내부에 장착되고, 상기 전자식 영상 안정화 센서는 노출이 수행될 때에 상기 외함의 원치않는 움직임을 감지함;
작동기를 구비하는 단계 - 상기 작동기는 상기 전자식 영상 안정화 센서에 전기적으로 연결되고, 상기 작동기는 상기 곡면 센서에 기계적으로 연결되고, 상기 작동기는 상기 전자식 영상 안정화 센서에 의해 감지된 상기 외함의 원치않는 움직임을 보정하기 위하여 상기 곡면 센서를 이동시킴;
제1 노출을 기록하는 단계;
제2 노출이 수행되는 동안에 상기 광학부 움직임 수단을 작동시켜서 상기 광학부의 의도적 움직임을 일으키는 단계;
제2 노출을 수행하는 단계;
상기 센서의 상기 다수의 간극에 의하여 원하는 영상에서 누락된 부분을 검출하기 위하여 상기 제1 및 제2 노출을 비교하는 단계;
상기 제1 및 상기 제2 노출을 사용하여 완전한 영상을 합성하는 단계를 포함하는 방법.
The method comprising the steps of: providing a camera, the camera comprising a sensor, the camera comprising an optic, the sensor comprising a plurality of single eyes bounded entirely by a plurality of gaps, An optical part moving means which intentionally causes the optical part to move;
Comprising the steps of providing an electronic image stabilization sensor, wherein the electronic image stabilization sensor is mounted within the enclosure, the electronic image stabilization sensor sensing undesired movement of the enclosure when exposure is performed;
The method comprising the steps of providing an actuator, the actuator being electrically connected to the electronic image stabilization sensor, the actuator being mechanically connected to the curved surface sensor, the actuator being arranged to move the undesired movement of the enclosure sensed by the electronic image stabilization sensor Moving the curved surface sensor to correct the curved surface sensor;
Recording a first exposure;
Activating the optical part moving means during a second exposure to cause an intentional movement of the optical part;
Performing a second exposure;
Comparing the first and second exposures to detect a missing portion in a desired image by the plurality of gaps in the sensor;
And combining the complete image using the first and second exposures.
제29항에 있어서, 상기 광학부 움직임 수단은 상기 광학부가 상기 곡면 센서 쪽으로 움직이도록 의도적으로 움직임을 일으키는 방법.30. The method of claim 29, wherein the optical portion motion means causes intentional movement such that the optical portion moves toward the curved surface sensor. 제29항에 있어서, 상기 센서는 전반적으로 상기 센서의 중앙부에 가까운 곳에서 상대적으로 높은 픽셀 밀도를 갖도록 구성되는 방법.30. The method of claim 29, wherein the sensor is configured to have a relatively high pixel density near the center of the sensor as a whole. 제29항에 있어서, 상기 센서는 전반적으로 상기 센서의 주변부에 가까운 곳에서 상대적으로 낮은 픽셀 밀도를 갖도록 구성되는 방법.30. The method of claim 29, wherein the sensor is configured to have a relatively low pixel density near the periphery of the sensor as a whole. 제29항에 있어서, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도는, 상대적으로 높은 영상 해상도를 유지하면서도, 전반적으로 상기 센서의 중앙부에 가까운 곳에서의 상대적으로 높은 픽셀 밀도를 이용하여서 망원 촬영으로의 주밍을 가능케 하는 방법.30. The method of claim 29, wherein a relatively high pixel density, generally near the center of the sensor, provides a relatively high pixel density, generally near the center of the sensor, while maintaining a relatively high image resolution. Thereby enabling zooming to telephoto shooting. 카메라를 구비하는 단계 - 상기 카메라는 곡면 센서를 포함하고, 상기 곡면 센서는 다수의 미니센서를 포함하고, 상기 카메라는 광학부를 포함함;
상기 곡면 센서에 연결된 신호 처리기를 구비하는 단계;
낮은 광 성능을 개선하기 위하여, 상기 다수의 픽셀의 상기 인접 그룹으로부터의 다수의 출력 신호를, 상기 곡면 센서에 형성된 상기 다수의 미니 픽셀의 인접 그룹으로부터의 다수의 출력 신호에 병합하여서, 이 병합된 출력을 상기 신호 처리기에 의해서 하나의 픽셀의 출력으로서 처리하도록 하는 단계를 포함하는 방법.
A method comprising: providing a camera, the camera including a curved surface sensor, the curved surface sensor including a plurality of mini-sensors, the camera including an optical portion;
Providing a signal processor coupled to the curved surface sensor;
In order to improve low optical performance, a plurality of output signals from the adjacent group of the plurality of pixels are merged into a plurality of output signals from adjacent groups of the plurality of mini-pixels formed in the curved surface sensor, And causing the output to be processed by the signal processor as an output of one pixel.
카메라를 구비하는 단계 - 상기 카메라는 곡면 센서를 포함하고, 상기 곡면 센서는 다수의 미니센서를 포함하고, 상기 카메라는 광학부를 포함함;
상기 곡면 센서에 연결된 신호 처리기를 구비하는 단계;
선명도의 상실 대신에 중복된 픽셀 저장을 제거하는 단계를 포함하는 방법.
A method comprising: providing a camera, the camera including a curved surface sensor, the curved surface sensor including a plurality of mini-sensors, the camera including an optical portion;
Providing a signal processor coupled to the curved surface sensor;
Removing redundant pixel storage instead of loss of sharpness.
외함; 광학 요소; 곡면 센서; 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 외함에는 단열 가스가 충전되고;
상기 곡면 센서는 간극으로 분리된 다수의 미니센서를 포함하고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 상기 곡면 센서에 연결되어 출력을 기록하는 장치.
Enclosure; Optical elements; Curved surface sensor; Signal processor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The enclosure is filled with adiabatic gas;
Wherein the curved surface sensor comprises a plurality of mini-sensors separated by a gap;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
And the signal processor is connected to the curved surface sensor to record the output.
제36항에 있어서, 상기 단열 가스는 아르곤인 장치.37. The apparatus of claim 36, wherein the adiabatic gas is argon. 제36항에 있어서, 상기 단열 가스는 크립톤인 장치.37. The apparatus of claim 36, wherein the adiabatic gas is krypton. 제36항에 있어서, 상기 단열 가스는 크세논인 장치.37. The apparatus of claim 36, wherein the adiabatic gas is xenon. 외함; 광학 요소; 곡면 센서; 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 그래핀(Graphene)으로 제작되고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 상기 곡면 센서에 연결되어 출력을 기록하는 장치.
Enclosure; Optical elements; Curved surface sensor; Signal processor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The curved surface sensor is made of Graphene;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
And the signal processor is connected to the curved surface sensor to record the output.
외함; 광학 요소; 곡면 센서; 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 스트레스 실리콘으로 제작되고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 상기 곡면 센서에 연결되어 출력을 기록하는 장치.
Enclosure; Optical elements; Curved surface sensor; Signal processor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The curved surface sensor is made of stressed silicon;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
And the signal processor is connected to the curved surface sensor to record the output.
외함; 광학 요소; 곡면 센서; 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는 응력 실리콘으로 제작되고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 상기 곡면 센서에 연결되어 출력을 기록하는 장치.
Enclosure; Optical elements; Curved surface sensor; Signal processor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
The curved surface sensor is made of stressed silicon;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
And the signal processor is connected to the curved surface sensor to record the output.
외함; 광학 요소; 곡면 센서; 신호 처리기를 포함하되,
상기 광학 요소는 상기 외함에 장착되고;
상기 광학 요소는 복사선의 열(srteam)을 전달하는 역할을 하고;
상기 곡면 센서는, 서로 연결되며 중첩되는 형태를 갖는 다수의 꽃잎 형상 세그먼트를 포함하고;
상기 곡면 센서는 상기 외함 내에 장착되고;
상기 곡면 센서는 상기 광학 요소와 정렬되고;
상기 신호 처리기는 상기 곡면 센서에 연결되어 출력을 기록하는 장치.
Enclosure; Optical elements; Curved surface sensor; Signal processor,
The optical element being mounted to the enclosure;
The optical element serving to deliver a stream of radiation (srteam);
Wherein the curved surface sensor includes a plurality of petal shaped segments connected to each other and having an overlapping shape;
The curved surface sensor being mounted in the enclosure;
The curved surface sensor being aligned with the optical element;
And the signal processor is connected to the curved surface sensor to record the output.
카메라 외함; 대물 렌즈; 다수의 미니센서; 광선을 분할 및 결상하기 위한 발산/수렴 광학 요소; 신호처리기를 포함하되,
상기 대물 렌즈는 상기 카메라 외함에 장착되고;
상기 다수의 미니센서는 상기 카메라 외함 내에 배치되고;
상기 미니센서는 제1 원호를 따라 배열되어 곡면 배열을 형성하고;
상기 발산/수렴 광학 요소는 상기 대물 렌즈에서 출사되는 광선을 상기 다수의 미니 센서 위로 분할 및 결상하고;
상기 발산/수렴 광학 요소는 상기 대물 렌즈와 상기 다수의 미니센서 사이에 배치되고;
상기 발산/수렴 광학 요소는 상기 제1 원호에 평행한 제2 원호를 따라 배열되고;
상기 다수의 미니센서는 각각의 출력을 갖고;
상기 각 미니센서의 상기 출력은 신호 처리기에 연결되는 장치.
Camera enclosure; objective; Multiple mini sensors; A diverging / converging optical element for splitting and imaging the light beam; Signal processor,
The objective lens is mounted on the camera housing;
The plurality of mini sensors being disposed within the camera enclosure;
The mini-sensors being arranged along a first arc to form a curved array;
The diverging / converging optical element splitting and imaging the light beam emitted from the objective lens onto the plurality of mini-sensors;
The diverging / converging optical element being disposed between the objective lens and the plurality of mini sensors;
The diverging / converging optical element is arranged along a second circular arc parallel to the first circular arc;
The plurality of mini-sensors having respective outputs;
Wherein the output of each mini-sensor is coupled to a signal processor.
제21항에 있어서,
상기 줌 렌즈는 줌 렌즈통을 포함하고;
상기 줌 렌즈통은 상기 렌즈 차양의 위치를 조절하기 위한 상기 수동 조절 렌즈 차양에 연결되는 장치.
22. The method of claim 21,
The zoom lens including a zoom lens barrel;
Wherein the zoom lens barrel is connected to the manually adjustable lens shade for adjusting the position of the lens shade.
KR1020140160282A 2013-12-27 2014-11-17 Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers KR20150077287A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/998,980 2013-12-27
US13/998,980 US20150189140A1 (en) 2009-02-23 2013-12-27 Curved sensor array camera

Publications (1)

Publication Number Publication Date
KR20150077287A true KR20150077287A (en) 2015-07-07

Family

ID=53790126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140160282A KR20150077287A (en) 2013-12-27 2014-11-17 Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers

Country Status (2)

Country Link
JP (1) JP2015128292A (en)
KR (1) KR20150077287A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748637A (en) * 2017-06-26 2018-03-02 陶畅 A kind of method for gaming to interacting formula control from deformation pattern
WO2020096263A1 (en) * 2018-11-07 2020-05-14 삼성전자주식회사 Camera system included in vehicle and control method therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114280709B (en) * 2022-01-25 2023-04-18 宁波大学 Visual bionic photosensitive imaging device and application method
CN115185152A (en) * 2022-06-24 2022-10-14 长春理工大学 Catadioptric panoramic vision detection device with anti-exposure system and anti-exposure method
CN117233874B (en) * 2023-11-16 2024-02-09 西安信飞特信息科技有限公司 Image acquisition device and image acquisition equipment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748637A (en) * 2017-06-26 2018-03-02 陶畅 A kind of method for gaming to interacting formula control from deformation pattern
WO2020096263A1 (en) * 2018-11-07 2020-05-14 삼성전자주식회사 Camera system included in vehicle and control method therefor
KR20200052694A (en) * 2018-11-07 2020-05-15 삼성전자주식회사 Camera system included in vehicle, and controlling method thereof
US11689812B2 (en) 2018-11-07 2023-06-27 Samsung Electronics Co., Ltd. Camera system included in vehicle and control method therefor

Also Published As

Publication number Publication date
JP2015128292A (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP5404818B2 (en) Camera device and method for generating an image using the camera device
US20150189140A1 (en) Curved sensor array camera
CA2762725C (en) Mobile communicator with curved sensor camera
US20120159996A1 (en) Curved sensor formed from silicon fibers
US8957992B2 (en) Curved sensor camera with moving optical train
US8836805B2 (en) Curved sensor system
KR20150077287A (en) Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers
KR20160075583A (en) Methods and apparatus for capturing and/or combining images
KR101488831B1 (en) Mobile Communicator with Curved Sensor Camera, Curved Sensor Camera with Moving Optical Train, and Curved Sensors Formed from Silicon Fibers
CA2850811A1 (en) Curved sensor array camera
US20140118526A1 (en) Curvilinear sensor system
JP5658189B2 (en) Mobile communication device having a curved sensor camera, curved sensor camera having a movable optical unit, and curved sensor made of silicon fiber
US20130278818A1 (en) Curved sensor system
US20150077627A1 (en) Curved sensor formed from silicon fibers
JP5203155B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US20160013244A1 (en) Curved sensor system
EP2472580B1 (en) Method for making a curved sensor
US9106822B2 (en) Image apparatus with motion control
CA2781986A1 (en) Curved sensor formed from silicon fibers
JP2002171447A (en) Compound eye imaging system, imaging device and electronic equipment
JP5372439B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2010124177A (en) Imaging apparatus and control method of the imaging apparatus
EP2822265A1 (en) Curved sensor array camera
KR20120053345A (en) Camera including a plurality of imaging devices
JP2004248018A (en) Solid-state imaging unit and optical instrument provided with the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application