RU2417545C2 - Photographic camera for electronic device - Google Patents

Photographic camera for electronic device Download PDF

Info

Publication number
RU2417545C2
RU2417545C2 RU2008134116/09A RU2008134116A RU2417545C2 RU 2417545 C2 RU2417545 C2 RU 2417545C2 RU 2008134116/09 A RU2008134116/09 A RU 2008134116/09A RU 2008134116 A RU2008134116 A RU 2008134116A RU 2417545 C2 RU2417545 C2 RU 2417545C2
Authority
RU
Russia
Prior art keywords
image
pixels
line
row
scaling
Prior art date
Application number
RU2008134116/09A
Other languages
Russian (ru)
Other versions
RU2008134116A (en
Inventor
Матс ВЕРНЕРССОН (SE)
Матс ВЕРНЕРССОН
Original Assignee
Сони Эрикссон Мобайл Коммьюникейшнз Аб
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сони Эрикссон Мобайл Коммьюникейшнз Аб filed Critical Сони Эрикссон Мобайл Коммьюникейшнз Аб
Publication of RU2008134116A publication Critical patent/RU2008134116A/en
Application granted granted Critical
Publication of RU2417545C2 publication Critical patent/RU2417545C2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)

Abstract

FIELD: information technology.
SUBSTANCE: digital photographic camera has a support structure, an objective lens held by the support structure and having an optical axis, a sensitive element held by the support structure under the objective lens and having a certain number of adjacent pixel rows, where each pixel row contains a certain number of pixels, and each pixel includes an image sensor, and the image signal processor connected to the sensitive element includes an image scaling device which is configured to scale each pixel row in accordance with the scaling factor which differs from the adjacent pixel row. The image scaling device is configured to correct the oblique angle between the sensitive element of the photographic camera and the objective lens, the image of which is being captured.
EFFECT: avoiding geometrical distortions caused by the position of image capturing apparatus relative the object whose image is being captured.
25 cl, 16 dwg

Description

РОДСТВЕННАЯ ЗАЯВКАRELATED APPLICATION

По данной заявке испрашивается приоритет предварительной патентной заявки США с серийным номером 60/760,899, озаглавленной "Фотокамера для электронного устройства", поданной 20 января 2006 г., раскрытие которой настоящим включается в данный документ посредством ссылки, как если бы оно было изложено полностью.This application claims the priority of U.S. provisional patent application Serial Number 60 / 760,899, entitled "Camera for Electronic Device", filed January 20, 2006, the disclosure of which is hereby incorporated by reference as if it were set forth in full.

ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕFIELD OF THE INVENTION

Настоящее изобретение относится к камере для использования в устройстве связи, например камере, являющейся частью терминала радиосвязи, для использования в видеотелефонии. Конкретнее, изобретение относится к решению для регулировки направления наблюдения камеры в устройстве связи, имеющем дисплей.The present invention relates to a camera for use in a communication device, such as a camera that is part of a radio terminal, for use in video telephony. More specifically, the invention relates to a solution for adjusting a viewing direction of a camera in a communication device having a display.

ПРЕДШЕСТВУЮЩИЙ УРОВЕНЬ ТЕХНИКИBACKGROUND OF THE INVENTION

Производство сотовых телефонов в мире за последние десятилетия получило грандиозное развитие. От исходных аналоговых систем, например, определенных стандартами AMPS (Усовершенствованная система мобильных телефонов) и NMT (Мобильный телефон северных стран), развитие в течение последних лет почти исключительно направлено на стандарты для цифровых решений для сотовых систем радиосети, таких как D-AMPS (например, как указано в EIA/TIA-IS-54-B и IS-136) и GSM (Глобальная система мобильной связи). В настоящее время технология сотовой связи вступает в так называемое 3-е поколение (3G) посредством систем связи, таких как WCDMA, предоставляющих несколько преимуществ над указанными выше цифровыми системами 2-го поколения.The production of cell phones in the world over the past decades has received tremendous development. From source analog systems, such as those defined by the AMPS (Advanced Mobile Phone System) and NMT (Nordic Mobile Phone) standards, development over the past years has almost exclusively focused on standards for digital solutions for cellular radio network systems such as D-AMPS (e.g. as specified in EIA / TIA-IS-54-B and IS-136) and GSM (Global System for Mobile Communications). Currently, cellular technology is entering the so-called 3rd generation (3G) through communication systems such as WCDMA, which provide several advantages over the above-mentioned 2nd generation digital systems.

Большое количество усовершенствований в технологии мобильных телефонов относится к функциональным характеристикам, таким как лучшие дисплеи, более эффективные и имеющие более продолжительный срок службы батареи, и к средствам для формирования полифонических сигналов вызова. Одной функциональной характеристикой, которая становится все более и более общепринятой, является встроенная камера. В некоторых мобильных телефонах в настоящее время имеются камеры с функциональностью видеокамеры. С наступлением услуг с высокой скоростью передачи данных, таких как EDGE (развитие стандарта GSM с увеличенной скоростью передачи данных) и 3G, будут возрастать доступность и потребительские свойства для услуг передачи видео. В частности, в последнее время мобильная видеотелефония с одновременной передачей звука и движущихся изображений стала коммерчески доступной.A large number of improvements in mobile phone technology relate to functional characteristics, such as better displays, more efficient and longer battery life, and to means for generating polyphonic ring tones. One functional feature that is becoming more and more common is the integrated camera. Some mobile phones currently have cameras with camcorder functionality. With the advent of high-speed data services such as EDGE (the development of the GSM standard with an increased data transfer rate) and 3G, the availability and consumer properties for video transmission services will increase. In particular, recently, mobile video telephony with the simultaneous transmission of sound and moving images has become commercially available.

Для стационарного использования системы видеоконференций обычно включают в себя камеру, установленную на или рядом с терминалом связи, например персональным компьютером (PC), либо встроенную в телефон, работающий по Интернет-протоколу (IP). Использование такой системы может быть достаточно простым, так как пользователь располагается перед терминалом с направленной на пользователя камерой. Однако мобильная видеоконференция является более затруднительной. Терминал может располагаться на подставке на рабочем столе, с которой камера в устройстве направляется на объект, подлежащий изучению, который нужно снимать, обычно на пользователя. Более простым способом использования мобильного телефона для видеоконференции с передачей "лицом к лицу" является его удержание таким образом, что встроенная камера вручную направляется на пользователя. При общении через мобильный карманный терминал пользователь, следовательно, может держать терминал постоянно перед лицом так, что принимающая сторона может видеть лицо пользователя, т.е. передающую сторону.For stationary use, videoconferencing systems typically include a camera mounted on or near a communication terminal, such as a personal computer (PC), or integrated in a telephone using Internet Protocol (IP). Using such a system can be quite simple, since the user is located in front of the terminal with a camera aimed at the user. However, mobile video conferencing is more difficult. The terminal can be located on a stand on the desktop, from which the camera in the device is directed to the object to be studied, which you want to shoot, usually the user. A simpler way to use a mobile phone for video conferencing with face-to-face transmission is to hold it in such a way that the built-in camera is manually aimed at the user. When communicating via a mobile handheld terminal, the user, therefore, can hold the terminal constantly in front of the face so that the receiving side can see the face of the user, i.e. transmitting side.

Проблема, относящаяся к видеоконференции с помощью радиотерминала, обусловлена тем фактом, что встроенная камера обычно размещается рядом или параллельно дисплею, т.е. оптическая ось камеры перпендикулярна поверхности дисплея. Поэтому терминал следует направлять под углом более или менее 90° к лицу, чтобы получить надлежащее изображение пользователя. Однако многие пользователи находят этот способ удерживания терминала некомфортным. Кроме того, для большинства конструкций мобильных телефонов может быть трудным использовать терминал, размещенный на рабочем столе, без дополнительного средства закрепления, поскольку это может требовать, чтобы лицо пользователя находилось над терминалом. Сопутствующей проблемой является то, что терминал также может включать в себя небольшой фонарик, направленный параллельно с камерой, для освещения объекта съемки. Когда камера и фонарик направлены на лицо пользователя под углом 90°, существует риск того, что отражения лица пользователя в поверхности дисплея будут искажать изображения, представленные на дисплее.The problem related to video conferencing using a radio terminal is due to the fact that the built-in camera is usually located next to or parallel to the display, i.e. the optical axis of the camera is perpendicular to the surface of the display. Therefore, the terminal should be directed at an angle of more or less than 90 ° to the face in order to obtain a proper image of the user. However, many users find this way of holding the terminal uncomfortable. In addition, for most mobile phone designs, it can be difficult to use a terminal located on the desktop without additional fixing means, as this may require that the user's face be above the terminal. A related problem is that the terminal may also include a small flashlight pointing in parallel with the camera to illuminate the subject. When the camera and the flashlight are directed at the user's face at an angle of 90 °, there is a risk that the reflection of the user's face in the display surface will distort the images displayed on the display.

Даже в случае, когда камера сконфигурирована таким образом, что ее можно держать под углом к снимаемому объекту, например лицу пользователя камеры, возникает проблема искажения перспективы изображения. Это может приводить к проблемам, когда истинное представление размеров объекта является решающим. В случае видеотелефонии снятое изображение лица пользователя будет иметь склонность к более широкой нижней части по сравнению с верхней частью лица, если камера удерживается под скошенным углом к лицу.Even when the camera is configured in such a way that it can be held at an angle to the subject being shot, for example, the face of the camera user, there is a problem of distorting the perspective of the image. This can lead to problems when the true representation of the size of the object is crucial. In the case of video telephony, the captured image of the user's face will tend to have a wider lower part than the upper part of the face if the camera is held at an oblique angle to the face.

СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION

Основная цель изобретения - предоставить решение для формирования цифровых изображений, где камера может удерживаться под скошенным углом к объекту, для захвата его изображения, что обычно приводит к искаженному изображению.The main objective of the invention is to provide a solution for the formation of digital images, where the camera can be held at an oblique angle to the object to capture its image, which usually leads to a distorted image.

Согласно первому аспекту, заявленная цель выполняется с помощью цифровой камеры, содержащей опорную конструкцию, объектив, удерживаемый опорной конструкцией и имеющий оптическую ось, чувствительный элемент, удерживаемый опорной конструкцией под объективом и содержащий некоторое количество смежных строк пикселей, где каждая строка пикселей содержит некоторое количество пикселей, и каждый пиксель включает в себя датчик изображения, и блок процессора сигнала изображения, подключенный к чувствительному элементу, включающий в себя устройство масштабирования изображения, сконфигурированное для масштабирования каждой строки пикселей согласно коэффициенту масштабирования, который отличается от смежной строки пикселей.According to a first aspect, the claimed purpose is achieved by using a digital camera containing a support structure, a lens held by a support structure and having an optical axis, a sensing element held by a support structure under the lens and containing a number of adjacent pixel rows, where each pixel row contains a number of pixels , and each pixel includes an image sensor, and an image signal processor unit connected to the sensing element, including a device An image scaling property configured to scale each row of pixels according to a scaling factor that differs from an adjacent row of pixels.

В варианте осуществления устройство масштабирования изображения конфигурируется для масштабирования каждой строки пикселей согласно коэффициенту масштабирования, имеющему величину, пропорциональную положению строки между начальной строкой и конечной строкой.In an embodiment, the image scaling device is configured to scale each row of pixels according to a scaling factor having a value proportional to the position of the line between the start line and the end line.

В варианте осуществления устройство масштабирования изображения конфигурируется реагирующим на ввод коэффициента масштабирования начальной строки и коэффициента масштабирования конечной строки и содержит функцию вычисления, сконфигурированную для вычисления коэффициентов масштабирования для каждой строки между начальной строкой и конечной строкой.In an embodiment, the image scaling device is configured to be responsive to input of a scaling factor of the start line and a scaling factor of the end line, and comprises a calculation function configured to calculate scaling factors for each line between the start line and the end line.

В варианте осуществления устройство масштабирования изображения конфигурируется для вычисления входной длины строки для строки пикселей как соотношения между нужной выходной длиной строки, общей для всех строк пикселей, и коэффициента масштабирования для этой строки; иIn an embodiment, the image scaling device is configured to calculate an input row length for a row of pixels as a ratio between a desired output row length common to all pixel rows and a scaling factor for that row; and

конфигурируется для масштабирования сигналов изображения, обнаруженных пикселями этой строки и которые находятся в пределах входной длины строки пикселей, до нужной выходной длины строки.Configurable to scale the image signals detected by the pixels of this line and which are within the input line length of the pixels to the desired output line length.

В варианте осуществления устройство масштабирования изображения конфигурируется для создания выходного изображения с центрированными строками.In an embodiment, the image scaling device is configured to create an output image with centered lines.

В варианте осуществления устройство масштабирования изображения конфигурируется для вычисления центральной начальной точки для каждой входной строки от чувствительного элемента, используя формулу:In an embodiment, the image scaling device is configured to calculate a central starting point for each input line from the sensor using the formula:

Figure 00000001
,
Figure 00000001
,

где startn - первый пиксель для обработки в строке n; l - количество пикселей во всей строке; и ln - количество пикселей для обработки в строке n.where start n is the first pixel to be processed in line n; l is the number of pixels in the entire line; and l n is the number of pixels to process in row n.

В варианте осуществления модуль камеры образован опорной конструкцией, где процессор сигналов изображения включен в модуль камеры.In an embodiment, the camera module is constituted by a support structure where an image signal processor is included in the camera module.

В варианте осуществления устройство масштабирования изображения конфигурируется для определения положения в предварительно установленном формате изображения выходного пикселя некоторой строки пикселей, для определения соответствующего положения в обнаруженном изображении путем обратного масштабирования с использованием коэффициента масштабирования для упомянутой некоторой строки, и для определения значения яркости для выходного пикселя путем интерполирования значений яркости, которые обнаружены пикселями, смежными с упомянутым соответствующим положением в обнаруженном изображении.In an embodiment, the image scaling device is configured to determine a position in a predetermined image format of the output pixel of a certain pixel row, to determine the corresponding position in the detected image by back-scaling using the scaling factor for said certain row, and to determine the brightness value for the output pixel by interpolating brightness values that are detected by pixels adjacent to the mentioned th corresponding position in the detected image.

В варианте осуществления устройство масштабирования изображения конфигурируется для вычисления коэффициентов масштабирования, зависящих от заданного предполагаемого косого угла между плоскостью изображения чувствительного элемента и объектом, изображение которого необходимо снять (захватить).In an embodiment, the image scaling device is configured to calculate scaling factors depending on a given estimated oblique angle between the image plane of the sensor and the object whose image you want to capture (capture).

В варианте осуществления поле зрения камеры определяется рабочей областью поверхности чувствительного элемента, которая смещена относительно центра относительно оптической оси объектива.In an embodiment, the camera’s field of view is determined by the working area of the surface of the sensor, which is offset from the center relative to the optical axis of the lens.

В варианте осуществления устройство масштабирования изображения конфигурируется для вычисления коэффициентов масштабирования Sn для каждой строки n посредством функции Sn=m+n*k, где m и k - константы.In an embodiment, the image scaling device is configured to calculate scaling factors S n for each row n by a function S n = m + n * k, where m and k are constants.

Согласно второму аспекту, заявленная цель выполняется посредством устройства связи, содержащего корпус; и модуля цифровой камеры, включающего в себя опорную конструкцию, объектив, удерживаемый опорной конструкцией и имеющий оптическую ось, чувствительный элемент, удерживаемый опорной конструкцией под объективом, содержащий некоторое количество смежных строк пикселей, где каждая строка пикселей содержит некоторое количество пикселей, и каждый пиксель включает в себя датчик изображения, и блок процессора сигнала изображения, подключенный к чувствительному элементу, включающий в себя устройство масштабирования изображения, сконфигурированное для масштабирования каждой строки пикселей согласно коэффициенту масштабирования, который отличается от смежной строки пикселей.According to a second aspect, the claimed purpose is accomplished by means of a communication device comprising a housing; and a digital camera module including a support structure, a lens held by the support structure and having an optical axis, a sensor element held by the support structure under the lens, containing a number of adjacent pixel rows, where each pixel row contains a number of pixels, and each pixel includes an image sensor, and an image signal processor unit connected to the sensing element, including an image scaling device, is configured annoe to scale each row of pixels according to the scaling factor that is different from an adjacent row of pixels.

В одном варианте осуществления устройство связи содержит приемопередатчик радиосигнала и блок управления, сконфигурированный для предоставления приемопередатчику радиосигнала масштабированного видеосигнала от модуля цифровой камеры.In one embodiment, the communication device comprises a radio signal transceiver and a control unit configured to provide a scaled video signal from the digital camera module to the radio transceiver.

В одном варианте осуществления устройство связи содержит дисплей, сконфигурированный для представления масштабированного изображения, которое предоставлено модулем цифровой камеры.In one embodiment, the communication device comprises a display configured to represent the scaled image that is provided by the digital camera module.

Согласно третьему аспекту, заявленная цель выполняется посредством способа для захвата изображения с использованием цифровой камеры, содержащего этапы:According to a third aspect, the claimed purpose is achieved by a method for capturing an image using a digital camera, comprising the steps of:

направления камеры на объект;camera directions to the subject;

обнаружения сигналов изображения в чувствительном элементе, содержащем некоторое количество смежных строк пикселей, где каждая строка пикселей содержит некоторое количество пикселей, и каждый пиксель включает в себя датчик изображения;detecting image signals in a sensor containing a number of adjacent rows of pixels, where each row of pixels contains a number of pixels, and each pixel includes an image sensor;

обработки обнаруженных сигналов изображения путем масштабирования каждой строки пикселей согласно коэффициенту масштабирования, который отличается от смежной строки пикселей, для обеспечения масштабированного изображения; иprocessing the detected image signals by scaling each row of pixels according to a scaling factor that differs from the adjacent row of pixels to provide a scaled image; and

вывода масштабированного изображения.output scaled image.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

масштабирования каждой строки пикселей согласно коэффициенту масштабирования, имеющему величину, пропорциональную положению строки между начальной строкой и конечной строкой.scaling each row of pixels according to a scaling factor having a value proportional to the position of the row between the start row and the end row.

В одном варианте осуществления способ содержит этапы:In one embodiment, the method comprises the steps of:

задания коэффициента масштабирования начальной строки и коэффициента масштабирования конечной строки; иsetting the scaling factor of the start line and the scaling factor of the end line; and

вычисления коэффициентов масштабирования для каждой строки между начальной строкой и конечной строкой.calculating scaling factors for each line between the start line and the end line.

В одном варианте осуществления способ содержит этапы:In one embodiment, the method comprises the steps of:

вычисления входной длины строки для строки пикселей как соотношения между нужной выходной длиной строки, общей для всех строк пикселей, и коэффициента масштабирования для этой строки;calculating the input row length for the row of pixels as the ratio between the desired output row length common to all rows of pixels and the scaling factor for this row;

иand

масштабирования сигналов изображения, обнаруженных пикселями этой строки, и которые находятся в пределах входной длины строки пикселей, до нужной выходной длины строки.scaling image signals detected by the pixels of this line, and which are within the input line length of the pixels, to the desired output line length.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

предоставления масштабированного изображения с центрированными строками.providing a scaled image with centered lines.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

вычисления центральной начальной точки для каждой входной строки из чувствительного элемента, используя формулу:calculating the central starting point for each input line from the sensor using the formula:

Figure 00000001
,
Figure 00000001
,

где startn - первый пиксель для обработки в строке n; l - количество пикселей во всей строке; и ln - количество пикселей для обработки в строке n.where start n is the first pixel to be processed in line n; l is the number of pixels in the entire line; and l n is the number of pixels to process in row n.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

обработки обнаруженного изображения посредством процессора сигналов изображения, выполненного как единое целое с цифровой камерой в модуле камеры устройства связи.processing the detected image by the image signal processor, made as a unit with a digital camera in the camera module of the communication device.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

передачи масштабированного изображения удаленному приемнику, используя приемопередатчик радиосигнала в терминале радиосвязи.transmitting the scaled image to a remote receiver using a radio transceiver in a radio terminal.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

представления масштабированного изображения на дисплее.Representation of the scaled image on the display.

В одном варианте осуществления способ содержит этапы:In one embodiment, the method comprises the steps of:

задания формата изображения;setting the image format;

определения положения выходного пикселя в некоторой строке пикселей в формате изображения;determining the position of the output pixel in a row of pixels in the image format;

определения соответствующего положения в обнаруженном изображении путем обратного масштабирования с использованием коэффициента масштабирования для упомянутой некоторой строки; иdetermining an appropriate position in the detected image by backscaling using the scaling factor for said row; and

определения значения яркости для выходного пикселя путем интерполирования значений яркости, которые обнаружены пикселями, смежными с упомянутым, соответствующим положением в обнаруженном изображении.determining a brightness value for the output pixel by interpolating the brightness values that are detected by pixels adjacent to said corresponding position in the detected image.

В одном варианте осуществления способ содержит этап:In one embodiment, the method comprises the step of:

вычисления коэффициентов масштабирования, зависящих от предварительно заданного предполагаемого косого угла между плоскостью изображения чувствительного элемента и объектом, изображение которого необходимо снять (захватить).calculating scaling factors depending on a predetermined estimated oblique angle between the image plane of the sensor and the object whose image you want to capture (capture).

КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙBRIEF DESCRIPTION OF THE DRAWINGS

Признаки и преимущества настоящего изобретения станут более очевидными из последующего описания предпочтительных вариантов осуществления со ссылкой на прилагаемые чертежи, на которых:The features and advantages of the present invention will become more apparent from the following description of preferred embodiments with reference to the accompanying drawings, in which:

фиг.1А и 1В схематически иллюстрируют карманный терминал радиосвязи, включающий в себя цифровую камеру и дисплей, согласно некоторым вариантам осуществления изобретения;1A and 1B schematically illustrate a handheld radio communication terminal including a digital camera and a display, according to some embodiments of the invention;

фиг.2 иллюстрирует терминал с фиг.1 при использовании для видеоконференции, согласно некоторым вариантам осуществления изобретения;figure 2 illustrates the terminal of figure 1 when used for video conferencing, according to some variants of the invention;

фиг.3 схематически иллюстрирует, как камера терминала удерживается под углом к лицу пользователя;figure 3 schematically illustrates how the camera of the terminal is held at an angle to the face of the user;

фиг.4 схематически иллюстрирует модуль цифровой камеры, согласно некоторым вариантам осуществления изобретения;4 schematically illustrates a digital camera module, according to some embodiments of the invention;

фиг.5 схематически иллюстрирует традиционный телефон с камерой;5 schematically illustrates a conventional camera phone;

фиг.6 схематически иллюстрирует некоторые аспекты телефона с камерой, согласно некоторым вариантам осуществления изобретения;6 schematically illustrates some aspects of a camera phone, according to some embodiments of the invention;

фиг.7 схематически иллюстрирует некоторые аспекты телефона с камерой, согласно дополнительным вариантам осуществления изобретения;7 schematically illustrates some aspects of a camera phone, according to additional embodiments of the invention;

фиг.8 и 9 схематически иллюстрируют модуль цифровой камеры, согласно некоторым вариантам осуществления изобретения;FIGS. 8 and 9 schematically illustrate a digital camera module, according to some embodiments of the invention;

фиг.10 и 11 схематически иллюстрируют модуль цифровой камеры, согласно дополнительным вариантам осуществления изобретения;10 and 11 schematically illustrate a digital camera module, according to additional embodiments of the invention;

фиг.12 схематически иллюстрирует искаженное изображение, вызванное тем, что камера удерживается под углом к прямоугольному объекту;12 schematically illustrates a distorted image caused by the camera being held at an angle to a rectangular object;

фиг.13 и 14 схематически иллюстрируют искаженное изображение и исправленное изображение, согласно варианту осуществления изобретения;13 and 14 schematically illustrate a distorted image and a corrected image according to an embodiment of the invention;

фиг.15 схематически иллюстрирует изображение, полученное от прямоугольного объекта, удерживаемого под скошенным углом к поверхности чувствительного элемента камеры.Fig. 15 schematically illustrates an image obtained from a rectangular object held at an oblique angle to the surface of a camera sensing element.

ПОДРОБНОЕ ОПИСАНИЕ ВАРИАНТОВ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF EMBODIMENTS OF THE INVENTION

Ниже варианты осуществления настоящего изобретения будут описаны подробнее со ссылкой на прилагаемые чертежи, на которых показаны варианты осуществления изобретения. Это изобретение, тем не менее, может быть реализовано во многих различных формах и не должно интерпретироваться как ограниченное вариантами осуществления, изложенными в данном документе. Точнее, эти варианты осуществления предоставляются для того, чтобы это раскрытие изобретения было всесторонним и полным и полностью передавало объем изобретения специалистам в данной области техники. По всему тексту одинаковые цифры ссылаются на одинаковые элементы.Embodiments of the present invention will be described below in more detail with reference to the accompanying drawings, in which embodiments of the invention are shown. This invention, however, can be implemented in many different forms and should not be interpreted as limited to the embodiments set forth herein. More specifically, these embodiments are provided so that this disclosure of the invention is comprehensive and complete and fully conveys the scope of the invention to those skilled in the art. Throughout the text, the same numbers refer to the same elements.

Несмотря на то, что термины "первый", "второй" и т.д. могут использоваться в этом документе для описания различных элементов, нужно понимать, что эти элементы не должны ограничиваться этими терминами. Эти термины используются только для проведения различия одного элемента от другого. Например, первый элемент мог бы называться вторым элементом, и аналогично, второй элемент мог бы называться первым элементом, без отклонения от объема настоящего изобретения. При использовании в данном документе термин "и/или" включает в себя любые и все комбинации одного или нескольких ассоциированных перечисленных терминов.Although the terms are “first,” “second,” etc. can be used in this document to describe various elements, it should be understood that these elements should not be limited to these terms. These terms are used only to distinguish one element from another. For example, the first element could be called the second element, and likewise, the second element could be called the first element, without departing from the scope of the present invention. As used herein, the term “and / or” includes any and all combinations of one or more of the associated listed terms.

Используемая в этом документе терминология предназначена только для целей описания отдельных вариантов осуществления и не предназначена для ограничения изобретения. При использовании в данном документе формы единственного числа предназначены также для включения в себя форм множественного числа, пока контекст явно не покажет иное. Дополнительно будет подразумеваться, что термины "содержит", "содержащий", "включает в себя" и/или "включающий в себя" при использовании в этом документе устанавливают наличие заявленных признаков, чисел, этапов, действий, элементов и/или компонентов, но не препятствуют наличию либо дополнению одного или нескольких признаков, чисел, этапов, действий, элементов, компонентов и/или их групп.The terminology used in this document is intended only for the purpose of describing particular embodiments and is not intended to limit the invention. When used in this document, the singular is also intended to include the plural, unless the context clearly shows otherwise. Additionally, it will be understood that the terms “comprises,” “comprising,” “includes,” and / or “including,” as used herein, indicate the presence of declared features, numbers, steps, actions, elements, and / or components, but do not interfere with the presence or addition of one or more signs, numbers, steps, actions, elements, components and / or their groups.

Пока не оговорено иное, все термины (включая технические и научные термины), использованные в этом документе, имеют тот же смысл, который в большинстве случаев понимается обычным специалистом в области техники, к которой относится изобретение. Дополнительно будет подразумеваться, что используемые в этом документе термины следует интерпретировать как имеющие значение, которое согласуется с их значением в контексте этого описания и в соответствующей области техники, и не должны интерпретироваться в идеализированном или слишком формальном значении, пока так не будет явно определено в этом документе.Unless otherwise specified, all terms (including technical and scientific terms) used in this document have the same meaning, which in most cases is understood by an ordinary specialist in the field of technology to which the invention relates. Additionally, it will be understood that the terms used in this document should be interpreted as having a meaning that is consistent with their meaning in the context of this description and in the relevant field of technology, and should not be interpreted in an idealized or too formal sense, unless so explicitly defined in this document.

Настоящее описание относится к области электронных устройств, а именно устройств связи, включающих в себя камеру и дисплей для показа фотографий, снятых камерой, которые выполнены с такой возможностью, что пользователь может смотреть на дисплей, пока камера направлена на этого же пользователя. Некоторые варианты осуществления изобретения относятся к терминалу связи, сконфигурированному для видеотелефонии. Такой терминал связи может быть, например, телефоном DECT (Европейский цифровой беспроводной телефон), подключаемым проводом к сетевой розетке PSTN (Коммутируемая телефонная сеть общего пользования), либо IP-телефоном с корпусом, включающим в себя дисплей и камеру. В некоторых вариантах осуществления терминал связи является терминалом радиосвязи, например мобильным телефоном, работающим для обмена информацией посредством базовой радиостанции и/или напрямую к другому радиотерминалу.The present description relates to the field of electronic devices, namely, communication devices including a camera and a display for displaying photographs taken by the camera, which are configured so that the user can look at the display while the camera is aimed at the same user. Some embodiments of the invention relate to a communication terminal configured for video telephony. Such a communication terminal may be, for example, a DECT telephone (European Digital Cordless Telephone) connected by a wire to a PSTN (Public Switched Telephone Network) socket, or an IP telephone with a housing including a display and a camera. In some embodiments, the communication terminal is a radio communication terminal, for example a mobile telephone, operating to exchange information via a radio base station and / or directly to another radio terminal.

Сейчас будут описываться варианты осуществления со ссылкой на прилагаемые чертежи.Embodiments will now be described with reference to the accompanying drawings.

Фиг.1А иллюстрирует электронное устройство в виде переносного терминала 10 связи, например мобильного телефона, согласно некоторым вариантам осуществления изобретения. Терминал 10 включает в себя опорную конструкцию 11, включающую корпус, и интерфейс пользователя, включающий клавишную панель или клавиатуру 12 и дисплей 13. Терминал 10 может также включать в себя аудиоинтерфейс, включающий микрофон и динамик, схему радиоприемопередатчика, антенну, батарею и микропроцессорную систему, включающую соответствующее программное обеспечение и память для хранения данных для радиосвязи, все удерживаемое опорной конструкцией 11 и заключенное в корпус. Дополнительно к этим элементам терминал 10 также включает в себя цифровую камеру 14, апертура которой указывается на фиг.1А.1A illustrates an electronic device in the form of a portable communication terminal 10, for example a mobile phone, according to some embodiments of the invention. Terminal 10 includes a support structure 11 including a housing, and a user interface including a keypad or keyboard 12 and a display 13. Terminal 10 may also include an audio interface including a microphone and speaker, a radio transmitter circuit, an antenna, a battery, and a microprocessor system, including appropriate software and memory for storing data for radio communications, all held by the supporting structure 11 and enclosed in a housing. In addition to these elements, terminal 10 also includes a digital camera 14, the aperture of which is indicated in FIG. 1A.

Как показано на фиг.1А, апертура камеры 14 и дисплей 13 могут быть размещены так, что оба являются видимыми из обычного положения просмотра. Например, апертура камеры 14 и дисплей 13 могут размещаться на одной стороне корпуса 11. Таким образом, камера 14 может направляться на пользователя, пока пользователь смотрит на дисплей 13. Соответственно, терминал 10 связи может использоваться для видеотелефонии.As shown in FIG. 1A, the aperture of the camera 14 and the display 13 can be placed so that both are visible from the normal viewing position. For example, the aperture of the camera 14 and the display 13 can be placed on one side of the housing 11. Thus, the camera 14 can be directed to the user while the user is looking at the display 13. Accordingly, the communication terminal 10 can be used for video telephony.

Варианты осуществления настоящего изобретения могут быть дополнительно описаны со ссылкой на схематический чертеж терминала 10 связи, показанного на Фиг.1В. Ссылаясь на фиг.1В, типовой терминал 10 связи в соответствии с некоторыми вариантами осуществления настоящего изобретения включает в себя клавишную панель 12, дисплей 13, приемопередатчик 26, запоминающее устройство 16, микрофон 15, динамик 19 и камеру 14, которые взаимодействуют с блоком управления или процессором 20. Приемопередатчик 26 обычно включает в себя схему 27 передатчика, схему 28 приемника и модем 29, которые взаимодействуют для передачи и приема радиочастотных сигналов к удаленным приемопередатчикам посредством антенны 25. Радиочастотные сигналы, переданные между терминалом 10 связи и удаленными приемопередатчиками, могут содержать сигналы трафика и управляющие сигналы (например, сигналы персонального вызова/сообщения для входящих вызовов), которые используются для установления и поддержания связи с другой стороной или пунктом назначения.Embodiments of the present invention may be further described with reference to a schematic drawing of the communication terminal 10 shown in FIG. 1B. Referring to FIG. 1B, an exemplary communication terminal 10 in accordance with some embodiments of the present invention includes a keypad 12, a display 13, a transceiver 26, a storage device 16, a microphone 15, a speaker 19, and a camera 14 that communicate with a control unit or the processor 20. The transceiver 26 typically includes a transmitter circuit 27, a receiver circuit 28, and a modem 29 that cooperate to transmit and receive radio frequency signals to remote transceivers via an antenna 25. Radio frequency the signals transmitted between the communication terminal 10 and the remote transceivers may contain traffic signals and control signals (eg, paging / message signals for incoming calls) that are used to establish and maintain communication with the other party or destination.

Запоминающее устройство 16 может быть запоминающим устройством общего назначения, которое используется как для хранения команд управления программой для процессора 20, так и данных, например звуковых данных, видеоданных, конфигурационных данных и/или других данных, к которым процессор 20 может обращаться и/или использовать. Запоминающее устройство 16 может включать в себя энергонезависимое запоминающее устройство с оперативной записью и считыванием, постоянное запоминающее устройство и/или энергозависимое запоминающее устройство.The storage device 16 may be a general-purpose storage device that is used both to store program control commands for the processor 20, and data, for example, audio data, video data, configuration data and / or other data that the processor 20 can access and / or use . The storage device 16 may include non-volatile memory with online write and read, read only memory and / or non-volatile memory.

Ссылаясь на фиг.2, иллюстрируется использование терминала 10 связи для видеотелефонии. Обычно в сеансе видеотелефонии изображение 21 удаленного участника передается терминалу 10 и показывается на дисплее 13 в назначенном окне 22. В то же время уменьшенное изображение 23 пользователя терминала 10, снятое фотокамерой 14, может также показываться на дисплее 13 в окне 24. Окно 24 может отображаться в отдельном окне/дисплее терминала 10 и/или в субокне дисплея 13 как "картинка-в-картинке". Таким образом, пользователь может получать визуальную обратную связь о том, как направлена камера 14, и может управлять терминалом 10 для правильного наведения.Referring to FIG. 2, the use of a communication terminal 10 for video telephony is illustrated. Typically, in a video telephony session, an image 21 of the remote participant is transmitted to the terminal 10 and shown on the display 13 in the designated window 22. At the same time, a thumbnail image 23 of the user of the terminal 10 captured by the camera 14 can also be displayed on the display 13 in the window 24. Window 24 can be displayed in a separate window / display of the terminal 10 and / or in the subwindow of the display 13 as a picture-in-picture. Thus, the user can receive visual feedback on how the camera 14 is directed, and can control the terminal 10 for correct guidance.

Уже описана проблема, относящаяся к видеотелефонии, а именно та, что может быть комфортнее держать терминал 10 под некоторым углом к пользователю 30, обозначенным θ на фиг.3, а не параллельно лицу пользователя. Расположение терминала 10 под косым углом к объекту, который нужно изобразить, обычно лицу пользователя, может также облегчить использование терминала 10 для видеотелефонии путем помещения терминала на опору, например рабочую поверхность. Однако отклонение традиционного терминала может привести к эффекту смещения захваченного изображения, так как фотокамера может быть неправильно направлена. Смещение захваченного изображения в назначенном окне изображения будет видимым на дисплее и, конечно, для удаленного участника, принимающего захваченные изображения. С увеличением угла θ лицо пользователя может пропасть в окне. В некоторой точке лицо выпадет из поля зрения камеры, что обычно бывает в диапазоне 50-70° полного угла. Ссылаясь на фиг.1-14, сейчас будут описываться различные варианты осуществления камеры и устройства связи в виде терминала, включающего в себя камеру, которые сконфигурированы для съемки изображения под скошенным углом, как указано на фиг.3. Точнее говоря, сначала будет описываться камера, сконфигурированная для съемки (захвата) изображения с основной линии визирования, которая наклонена относительно оптической оси камеры. Кроме того, будут описываться камера и способ для исправления или корректировки перспективы захваченного изображения, которое искажено вследствие отклонения угла.A problem related to video telephony has already been described, namely, that it may be more comfortable to hold the terminal 10 at a certain angle to the user 30, indicated by θ in FIG. 3, and not parallel to the face of the user. The location of the terminal 10 at an oblique angle to the object to be displayed, usually the face of the user, can also facilitate the use of the terminal 10 for video telephony by placing the terminal on a support, such as a work surface. However, deviation of the conventional terminal may result in the effect of shifting the captured image, as the camera may not be oriented correctly. The offset of the captured image in the designated image window will be visible on the display and, of course, for the remote participant receiving the captured image. With increasing angle θ, the user's face may disappear in the window. At some point, the face will fall out of the field of view of the camera, which usually happens in the range of 50-70 ° full angle. Referring to FIGS. 1-14, various embodiments of a camera and a communication device in the form of a terminal including a camera that are configured to take an image at an oblique angle as described in FIG. 3 will now be described. More specifically, a camera configured to capture (capture) an image from a main line of sight that is inclined relative to the optical axis of the camera will be described first. In addition, a camera and method for correcting or adjusting the perspective of a captured image that is distorted due to angle deviation will be described.

Фиг.4 схематически иллюстрирует модуль 14 цифровой камеры для использования в электронном устройстве, например терминале 10, согласно некоторым вариантам осуществления изобретения. Модуль 14 камеры включает в себя объектив 41, включающий в себя одну или более отдельных линз, выполненных, например, из пластика или стекла и имеющих оптическую ось 45, указанную штрихпунктирной линией. Чувствительный элемент 42 с верхней поверхностью 43 чувствительного элемента располагается на расстоянии и параллельно объективу 41 посредством опорного элемента 44, который может включать в себя герметичный пластиковый корпус. Модуль камеры может также включать в себя процессор 46 сигналов изображения (ISP), который может быть подключен к тыльной стороне чувствительного элемента 42. В качестве альтернативы ISP 46 может быть подключен к чувствительному элементу 42 проводом, например гибким кабелем. Геометрия модуля 14 камеры, включающая фокусное расстояние и апертуру объектива 41 и размер плоскости изображения, определенный поверхностью 43 чувствительного элемента и его положением относительно объектива 41, определяет поле зрения модуля 14 камеры. С целью ясного описания изобретения термин "главная линия визирования" будет использоваться для обозначения главного луча через объектив 41 к центру используемой области изображения. Обычно поверхность 43 чувствительного элемента размещается центрально под объективом 41, и главная линия визирования камеры 14, следовательно, совпадает с оптической осью 45. Поверхность 43 чувствительного элемента, как правило, может быть прямоугольной или даже квадратной и может быть симметрична относительно оптической оси 45.4 schematically illustrates a digital camera module 14 for use in an electronic device, such as a terminal 10, according to some embodiments of the invention. The camera module 14 includes a lens 41 including one or more separate lenses made, for example, of plastic or glass and having an optical axis 45 indicated by a dot-dash line. The sensing element 42 with the upper surface 43 of the sensing element is located at a distance and parallel to the lens 41 by the support element 44, which may include a sealed plastic housing. The camera module may also include an image signal processor (ISP) 46, which may be connected to the back of the sensor 42. Alternatively, the ISP 46 may be connected to the sensor 42 by a wire, such as a flexible cable. The geometry of the camera module 14, including the focal length and aperture of the lens 41 and the image plane size defined by the surface 43 of the sensor and its position relative to the lens 41, determines the field of view of the camera module 14. For the purpose of clearly describing the invention, the term "main line of sight" will be used to designate the main beam through the lens 41 to the center of the image area used. Typically, the surface 43 of the sensor is located centrally under the lens 41, and the main line of sight of the camera 14, therefore, coincides with the optical axis 45. The surface 43 of the sensor, as a rule, can be rectangular or even square and can be symmetrical about the optical axis 45.

Фиг.5 иллюстрирует обычный терминал 10, включающий камеру 14 и дисплей 13. На фиг.5 ось 51 указывает направление нормали дисплея 13, т.е. ось, перпендикулярную поверхности дисплея 13. Кроме того, оптическая ось 45, которая представляет главную линию визирования для камеры 14, указывается как параллельная направлению 51 нормали.Fig. 5 illustrates a conventional terminal 10 including a camera 14 and a display 13. In Fig. 5, the axis 51 indicates the normal direction of the display 13, i.e. an axis perpendicular to the surface of the display 13. In addition, the optical axis 45, which represents the main line of sight for the camera 14, is indicated as parallel to the normal direction 51.

Фиг.6-7 иллюстрируют терминалы 10А, 10В в соответствии с некоторыми вариантами осуществления изобретения в упрощенной боковой проекции, на которой иллюстрируются только дисплей 23 и камера 14. Фиг.6 иллюстрирует терминал 10А, в котором камера 14 наклонена таким образом, что ее оптическая ось и главная линия 45 визирования наклонена относительно направления 51 нормали на острый угол φ. В некоторых вариантах осуществления камера 14 может быть наклонена на угол φ, который соответствует заданному рабочему углу θ, который указан на фиг.3. Таким образом, терминал 10А может использоваться для видеотелефонии, когда его удерживают под углом к пользователю без смещения захваченного изображения. Тем не менее, в этих вариантах осуществления, поскольку камера 14 может наклоняться, она может занимать больше места в терминале 10А. Кроме того, закрепление камеры 14, например, на РСВ (печатной плате) в наклонной ориентации в терминале 10А может потребовать дополнительного установочного устройства, такого как промежуточный клиновидный элемент.6-7 illustrate terminals 10A, 10B in accordance with some embodiments of the invention in a simplified side view, which illustrates only the display 23 and the camera 14. FIG. 6 illustrates a terminal 10A in which the camera 14 is tilted so that its optical the axis and the main line of sight 45 inclined relative to the direction 51 of the normal to an acute angle φ. In some embodiments, the implementation of the camera 14 may be tilted at an angle φ, which corresponds to a given working angle θ, which is indicated in figure 3. Thus, terminal 10A can be used for video telephony when it is held at an angle to the user without shifting the captured image. However, in these embodiments, since the camera 14 may tilt, it may take up more space in the terminal 10A. In addition, securing the camera 14, for example, to a PCB (printed circuit board) in an oblique orientation in terminal 10A, may require an additional installation device, such as an intermediate wedge-shaped element.

Фиг.7 иллюстрирует терминал 10В, согласно дополнительным вариантам осуществления изобретения, на котором позиция 51 указывает направление нормали дисплея 13, т.е. оси, перпендикулярной поверхности дисплея 13. Кроме того, оптическая ось 45 камеры 71 указывается как параллельная направлению 51 нормали. Камера 71 может быть закреплена внутри терминала 10В параллельно дисплею 13, например, посредством пайки или другого типа соединения и подключения к общей РСВ. Однако поле зрения камеры 71, имеющей главную линию 72 визирования, задается рабочей областью поверхности 43 чувствительного элемента, которая может быть смещена относительно центра по отношению к оптической оси 45 объектива (см. фиг.4). Рабочая область может быть всей областью поверхности 43 чувствительного элемента, где вся поверхность чувствительного элемента смещена относительно центра. В качестве альтернативы рабочая область может быть смещенной от центра частью иным образом центрированной поверхности 43 чувствительного элемента, в этом случае камера 71 может быть в основном похожа на камеру 14 на основе показанных элементов. Различие состоит в том, какие пиксели поверхности чувствительного элемента используются для считывания изображения.7 illustrates a terminal 10B, according to additional embodiments of the invention, at which position 51 indicates the normal direction of the display 13, i.e. an axis perpendicular to the surface of the display 13. In addition, the optical axis 45 of the camera 71 is indicated as parallel to the normal direction 51. The camera 71 may be mounted inside the terminal 10B parallel to the display 13, for example, by soldering or other type of connection and connection to a common PCB. However, the field of view of the camera 71 having the main line of sight 72 is set by the working area of the surface of the sensor 43, which can be offset relative to the center with respect to the optical axis 45 of the lens (see Fig. 4). The working area may be the entire area of the surface of the sensor 43, where the entire surface of the sensor is offset from the center. Alternatively, the working area may be offset from the center by a part of the otherwise centered surface 43 of the sensor element, in which case the camera 71 may be basically similar to the camera 14 based on the elements shown. The difference is which pixels on the surface of the sensor are used to read the image.

Фиг.8 и 9 схематически иллюстрируют некоторые аспекты камеры 71, согласно некоторым вариантам осуществления изобретения. Использованные на фиг.4 ссылочные позиции также используются на фиг.8 и 9 для соответствующих элементов. ISP 46 исключается из фиг.8 и 9, поскольку его не нужно механически присоединять непосредственно к модулю 71 камеры. Фиг.8 - боковая проекция камеры 71, а фиг.9 - вид в перспективе камеры 71, на которой для упрощения исключен опорный элемент 44 (опорная конструкция).Figs. 8 and 9 schematically illustrate certain aspects of a chamber 71, according to some embodiments of the invention. The reference numerals used in FIG. 4 are also used in FIGS. 8 and 9 for the respective elements. ISP 46 is excluded from FIGS. 8 and 9 because it does not need to be mechanically attached directly to the camera module 71. Fig. 8 is a side view of the chamber 71, and Fig. 9 is a perspective view of the chamber 71, in which, for simplicity, the supporting element 44 (supporting structure) is excluded.

Чувствительный элемент 42 может включать в себя датчик изображения, обладающий полноразмерной поверхностью 43 чувствительного элемента в пределах области, заданной длиной А и шириной С, и может включать в себя некоторое количество пикселей, например, 400×400, 640×480 или любую другую компоновку матрицы. В этом варианте осуществления все-таки задается рабочая область 91 поверхности 43 чувствительного элемента, которая включает в себя только подмножество общего количества пикселей. В проиллюстрированном примере область 91 (заштрихованная область) является прямоугольной и имеет длину В<А и ширину D<=C. Кроме того, рабочая область 91 может быть смещена относительно центра по отношению к поверхности 43 чувствительного элемента, где оптическая ось 45 объектива 41 пересекается с поверхностью 43 чувствительного элемента. Возможно задать область 91 как смещенную относительно центра вдоль осей х и y, указанных на фиг.9. Тем не менее, в проиллюстрированном варианте осуществления область 91 смещена относительно центра только вдоль оси х и центрирована по оси y. Рабочая область 91 может быть смещена относительно центра к правой боковой грани вдоль оси х и может занимать все пиксели за правой боковой гранью, но не все пиксели по направлению к левой боковой грани поверхности 43 чувствительного элемента. В качестве альтернативы рабочая область может быть менее смещенной относительно центра и может не включать в себя самые крайние пиксели на правой стороне поверхности 43 чувствительного элемента. Вдоль оси у рабочая область 91 может быть уже D, чем вся ширина С поверхности 43 чувствительного элемента, как проиллюстрировано на чертеже.The sensor element 42 may include an image sensor having a full-sized sensor surface 43 within the area specified by the length A and width C, and may include a number of pixels, for example, 400 × 400, 640 × 480, or any other matrix layout . In this embodiment, the working area 91 of the sensor surface 43 is still defined, which includes only a subset of the total number of pixels. In the illustrated example, the region 91 (the shaded region) is rectangular and has a length B <A and a width D <= C. In addition, the working area 91 may be offset from the center with respect to the surface 43 of the sensor, where the optical axis 45 of the lens 41 intersects the surface 43 of the sensor. It is possible to set the region 91 as offset from the center along the x and y axes indicated in FIG. 9. However, in the illustrated embodiment, the region 91 is offset from the center only along the x axis and centered on the y axis. The working area 91 may be offset from the center to the right side face along the x axis and may occupy all the pixels behind the right side face, but not all pixels towards the left side face of the sensor surface 43. Alternatively, the work area may be less offset from the center and may not include the outermost pixels on the right side of the sensor surface 43. Along the axis y, the working area 91 may be narrower than D, than the entire width C of the surface 43 of the sensor, as illustrated in the drawing.

Центр рабочей области 91 может быть центром считывания плоскости изображения, и главная линия 72 визирования может быть задана от центра рабочей области 91 и оптического центра объектива 41. Эта главная линия визирования может проходить под острым углом φ к оптической оси 45, где величина φ может зависеть от расстояния между центром рабочей области 91 и оптической осью 45. Являясь острым, угол φ по определению больше 0° и меньше 90°. Тем не менее, для практических целей угол может быть в диапазоне 5-20° или даже 5-10°.The center of the working area 91 can be the center of reading the image plane, and the main line of sight 72 can be set from the center of the working area 91 and the optical center of the lens 41. This main line of sight can pass at an acute angle φ to the optical axis 45, where the value of φ may depend from the distance between the center of the working area 91 and the optical axis 45. Being sharp, the angle φ is by definition greater than 0 ° and less than 90 °. However, for practical purposes, the angle may be in the range of 5-20 ° or even 5-10 °.

В качестве примера поверхность 43 чувствительного элемента может включать в себя матрицу 400×400 пикселей из датчиков изображений. Тем не менее, для цели видеоконференции это может быть избыточным количеством пикселей. QCIF (Четверть общего промежуточного формата) является форматом видеоконференции, который предписывает скорости передачи данных в 30 кадров в секунду (fps), причем каждый кадр содержит 144 строки и 176 пикселей на строке. Это одна четверть разрешения полного CIF, который определяет 355×288 пикселей. Поддержка QCIF требуется стандартом видеоконференции ITU H.261, и по существу требуется только матрица 176×144 пикселей. Это меньше половины доступного количества пикселей в каждом направлении. С целью повышения качества изображения возможно использование вдвое большего количества строк с вдвое большим количеством пикселей на строку, то есть CIF, который подходит к матрице 400×400.As an example, the surface 43 of the sensing element may include a 400 × 400 pixel array of image sensors. However, for the purpose of video conferencing, this may be an excessive number of pixels. QCIF (Quarter of a Common Intermediate Format) is a video conferencing format that specifies data rates of 30 frames per second (fps), with each frame containing 144 lines and 176 pixels per line. This is one quarter of the resolution of the full CIF, which defines 355 × 288 pixels. QCIF support is required by the ITU H.261 video conferencing standard, and essentially only a 176 × 144 pixel matrix is required. This is less than half the available number of pixels in each direction. In order to improve image quality, it is possible to use twice as many lines with twice as many pixels per line, that is, CIF, which is suitable for a 400 × 400 matrix.

В некоторых вариантах осуществления рабочая область 91, включающая в себя 355×288 пикселей, задается на поверхности 43 чувствительного элемента, включающей в себя 400×400 пикселей, распространяясь внутри от одной боковой грани центрированной поверхности 43 чувствительного элемента, и центрирована вдоль этой боковой грани, как показано на фиг.9. Чувствительный элемент 42 размером 3,2×3,2 мм с плотностью пикселей 3,6 микрометров обладает поверхностью (А×С) чувствительного элемента, примерно, 1,44×1,44 мм, и рабочая область будет иметь длину В, равную 288/400×1,44=1,037 мм. Центр рабочей области тогда может располагаться 1,44/2-1,037/2=0,2 мм от центра поверхности 43 чувствительного элемента. Допуская, что объектив 41 располагается на высоте 1,5 мм от поверхности 43 чувствительного элемента, главная линия 72 визирования тогда будет иметь угол, примерно, φ=arctan (0,2/1,5), приблизительно, 7,6° к оптической оси 45. Используя только матрицу QCIF, соответствующий угол был бы arctan(1,44*(1-144/400)/(2*1,5)), или, приблизительно, 17,1°. Тем не менее, даже если необходимо использовать изображение QCIF, возможно использовать плоскость изображения полного CIF для повышения качества изображения.In some embodiments, a workspace 91 including 355 × 288 pixels is defined on the surface 43 of the sensor including 400 × 400 pixels, extending inside from one side face of the centered surface 43 of the sensor, and is centered along this side, as shown in Fig.9. The sensor 42 of 3.2 × 3.2 mm in size with a pixel density of 3.6 micrometers has a surface (A × C) of the sensor of approximately 1.44 × 1.44 mm, and the work area will have a length B of 288 / 400 × 1.44 = 1.037 mm. The center of the working area can then be located 1.44 / 2-1.037 / 2 = 0.2 mm from the center of the surface 43 of the sensing element. Assuming that the lens 41 is located at a height of 1.5 mm from the surface 43 of the sensing element, the main line of sight 72 will then have an angle of approximately φ = arctan (0.2 / 1.5), approximately 7.6 ° to the optical axis 45. Using only the QCIF matrix, the corresponding angle would be arctan (1.44 * (1-144 / 400) / (2 * 1.5)), or approximately 17.1 °. However, even if it is necessary to use a QCIF image, it is possible to use the full CIF image plane to improve image quality.

Также возможно задавать рабочую область посредством обратного вычисления. Например, допустим что фотокамера будет использоваться под некоторым углом θ, например 10°, и необходимо применять матрицу QCIF. Необходимое смещение Δ центра рабочей области 91, когда расстояние до объектива составляет 1,5 мм, тогда равно Δ=1,5tan(10°), или, приблизительно, 0,26 мм. Для подобной конфигурации рабочая область 91 не будет все время выходить к краю поверхности 43 чувствительного элемента; скорее будет около 55 неиспользованных строк пикселей в верхней части поверхности 43 чувствительного элемента.It is also possible to set the work area by means of inverse calculation. For example, suppose that the camera will be used at a certain angle θ, for example 10 °, and it is necessary to use a QCIF matrix. The required offset Δ of the center of the working area 91, when the distance to the lens is 1.5 mm, then is Δ = 1.5tan (10 °), or approximately 0.26 mm. For such a configuration, the working area 91 will not go out all the time to the edge of the surface 43 of the sensing element; rather, there will be about 55 unused pixel rows at the top of the sensor surface 43.

Следует понимать, что представленные выше значения даны только как возможные примеры, тогда как предоставление смещенной относительно центра рабочей области поверхности чувствительного элемента для получения поля зрения с главной линией визирования, которая наклонена по отношению к оптической оси объектива камеры, может применяться к любой геометрии камеры, как схематически проиллюстрировано на фиг.4. Чувствительный элемент 42 может быть, например, чувствительным элементом CMOS или чувствительным элементом CCD, и может быть черно-белым, серых тонов или цветным приемником изображения. Кроме того, рабочая область 91 может быть указана в оборудовании или микропрограммном обеспечении для ISP камеры в качестве смещенной относительно центра интересующей области или окна, подлежащего рассмотрению. В некоторых вариантах осуществления размер и положение рабочей области 91 могут быть заданы в качестве значения по умолчанию и, таким образом, всегда используются, пока не даются команды пользователя на изменение этой установки, например, посредством интерфейса 12 ввода.It should be understood that the above values are given only as possible examples, whereas the provision of a sensor surface offset relative to the center of the working area to obtain a field of view with a main line of sight that is inclined with respect to the optical axis of the camera lens can be applied to any camera geometry, as schematically illustrated in FIG. 4. The sensor 42 may be, for example, a CMOS sensor or a CCD sensor, and may be black and white, gray tones, or a color image receiver. In addition, the work area 91 may be indicated in the equipment or firmware for the ISP camera as offset from the center of the area of interest or window to be considered. In some embodiments, the size and position of the work area 91 can be set as the default value, and thus are always used until user instructions are given to change this setting, for example, via input interface 12.

Фиг.10 иллюстрирует варианты осуществления, которые могут предоставляться в качестве альтернативы вариантам осуществления, описанным со ссылкой на фиг.8 и 9, или которые могут объединяться с вариантами осуществления из фиг.8 и 9. Аналогично фотокамере 14, проиллюстрированной на фиг.4, камера 101 с фиг.10 включает в себя объектив 41 и чувствительный элемент 42 с поверхностью 43 чувствительного элемента, подвешенный параллельно и разнесенный с объективом 41 с помощью опорного элемента 44, и потенциально присоединенный ISP (не показан). Для объектива 41 задается оптическая ось 45. Поверхность 43 чувствительного элемента имеет длину А. Однако в этом случае чувствительный элемент 42 может не располагаться по центру под объективом 41. Вместо этого чувствительный элемент 42 смещен в сторону относительно объектива 41, так что оптическая ось 45 объектива 41 смещается относительно центра по отношению к поверхности 43 чувствительного элемента. На фиг.10 это иллюстрируется чувствительным элементом 42, смещенным в сторону в опорном элементе 44. В качестве альтернативы объектив 41 может быть смещен в сторону в опорном элементе 44.FIG. 10 illustrates embodiments that may be provided as alternatives to the embodiments described with reference to FIGS. 8 and 9, or that may be combined with the embodiments of FIGS. 8 and 9. Similar to the camera 14 illustrated in FIG. 4, the camera 101 of FIG. 10 includes a lens 41 and a sensor 42 with a sensor surface 43 suspended in parallel and spaced from the lens 41 by a support element 44, and a potentially attached ISP (not shown). An optical axis 45 is defined for the lens 41. The surface 43 of the sensor has a length A. However, in this case, the sensor 42 may not be centered below the lens 41. Instead, the sensor 42 is offset to the side relative to the lens 41, so that the optical axis 45 of the lens 41 is offset relative to the center with respect to the surface 43 of the sensing element. 10, this is illustrated by a sensing element 42 biased to the side in the supporting element 44. Alternatively, the lens 41 may be biased to the side in the supporting element 44.

При помощи этой особенности главная линия 102 визирования поля зрения для камеры 101, проходящая от центра поверхности 43 чувствительного элемента, может продолжаться под острым углом φ от оптической оси 45, где величина угла φ пропорциональна arctan(ΔА/h), где ΔА - относительное поперечное смещение и h - расстояние между объективом 41 и поверхностью 43 чувствительного элемента. В качестве примера, если поперечное смещение ΔА чувствительного элемента 42 равно 0,2 мм, как указано на фиг.10, и расстояние между объективом 41 и поверхностью 43 чувствительного элемента равно 1,5 мм, то главная линия визирования будет иметь угол φ, примерно, 7,6°.Using this feature, the main field of view line of sight 102 for the camera 101, extending from the center of the sensor surface 43, can extend at an acute angle φ from the optical axis 45, where the angle φ is proportional to arctan (ΔА / h), where ΔА is the relative transverse offset and h is the distance between the lens 41 and the surface 43 of the sensing element. As an example, if the lateral displacement ΔA of the sensor 42 is 0.2 mm, as indicated in FIG. 10, and the distance between the lens 41 and the sensor surface 43 is 1.5 mm, then the main line of sight will have an angle φ of approximately , 7.6 °.

Как указано, можно объединять варианты осуществления фиг.8 и 9 с вариантами осуществления фиг.10, тем самым, рабочая область задается в правой части чувствительного элемента 42, и где чувствительный элемент 42 также поперечно смещается вправо относительно объектива 41. В качестве примера рассмотрим пример, представленный для варианта осуществления фиг.9 с поверхностью 43 чувствительного элемента 400×400 пикселей с шагом пикселей 3,6 микрометра, размещенной на 1,5 мм ниже объектива 41, и к тому же применяется поперечное смещение ΔА чувствительного элемента 42, равное 0,2 мм, как показано на фиг.10.As indicated, it is possible to combine the embodiments of FIGS. 8 and 9 with the embodiments of FIG. 10, thereby setting the working area on the right side of the sensor 42, and where the sensor 42 is also laterally shifted to the right relative to the lens 41. As an example, consider an example shown for the embodiment of FIG. 9 with a sensor surface 43 of 400 × 400 pixels with a pixel pitch of 3.6 micrometers located 1.5 mm below the lens 41, and also the lateral displacement ΔA of the sensitive element is applied ment 42, equal to 0.2 mm, as shown in Fig.10.

Для варианта осуществления с CIF рабочая область 91 может продолжаться на 288 строк внутри от боковой грани поверхности 43 чувствительного элемента, которая наиболее удалена от оптической оси 45. Тогда центр рабочей области располагается 1,44/2-1,037/2+0,2=0,4 мм от оптической оси, что означает угол к оптической оси 45 около α=arctan(0,4/1,5), или, приблизительно, 15°. Для матрицы QCIF можно иметь даже больший угол, либо в качестве альтернативы использовать изображение CIF и масштабировать его до QCIF.For the CIF embodiment, the work area 91 may extend 288 lines inside from the lateral edge of the sensor surface 43, which is farthest from the optical axis 45. Then the center of the work area is 1.44 / 2-1.037 / 2 + 0.2 = 0 , 4 mm from the optical axis, which means an angle to the optical axis 45 of about α = arctan (0.4 / 1.5), or approximately 15 °. For a QCIF matrix, you can have even a larger angle, or alternatively use a CIF image and scale it to QCIF.

Для вариантов осуществления, в которых поверхность 43 чувствительного элемента смещена в сторону относительно оптической оси 45, может применяться усовершенствованная фотокамера путем адаптирования каждого пикселя к этой смещенной относительно центра оптической геометрии. Фиг.11 схематически иллюстрирует некоторые элементы камеры 110, согласно некоторым вариантам осуществления изобретения. Фиг.11 иллюстрирует объектив 41 камеры и три пикселя 110, 120, 130 чувствительного элемента 42. Вертикальная пунктирная линия 114 показана между пикселями 110 и 120, указывая центр поверхности 43 чувствительного элемента у чувствительного элемента 42, тогда как оптическая ось 45 пересекает центр объектива 41. Обычно центр поверхности 43 чувствительного элемента и оптическая ось 45 могут совпадать, но согласно вариантам осуществления, описанным со ссылкой на фиг.10, они могут располагаться на расстоянии ΔА.For embodiments in which the sensor surface 43 is offset to the side relative to the optical axis 45, an advanced camera can be applied by adapting each pixel to this center-offset optical geometry. 11 schematically illustrates some elements of a chamber 110, according to some embodiments of the invention. 11 illustrates a camera lens 41 and three pixels 110, 120, 130 of the sensor 42. A vertical dashed line 114 is shown between the pixels 110 and 120, indicating the center of the sensor surface 43 of the sensor 42, while the optical axis 45 intersects the center of the lens 41 Typically, the center of the surface of the sensor 43 and the optical axis 45 may be the same, but according to the embodiments described with reference to FIG. 10, they can be spaced ΔA.

Для направления входящего излучения правильно к воспринимающим элементам чувствительного элемента 42, каждый пиксель может включать в себя датчик, включающий в себя светочувствительный элемент 111, 121, 131, например фотодиод, и микроконденсорные линзы 112, 122, 132. Использование микролинз как части датчика изображения является общепринятой технологией для улучшения рабочей характеристики датчика, как показано, например, в патенте США №5,251,038. Соответственно, каждый пиксель чувствительного элемента 42 может включать в себя микроконденсорные линзы на поверхности воспринимающего элемента, чтобы направлять световые лучи на воспринимающий элемент.To direct the incoming radiation correctly to the sensing elements of the sensing element 42, each pixel may include a sensor including a photosensitive element 111, 121, 131, for example a photodiode, and microcapacitor lenses 112, 122, 132. The use of microlenses as part of an image sensor is conventional technology to improve the performance of the sensor, as shown, for example, in US patent No. 5,251,038. Accordingly, each pixel of the sensing element 42 may include microcapacitor lenses on the surface of the sensing element to direct light rays to the sensing element.

Конструкция и расположение микролинз может зависеть от угла главного луча в пучке света, падающего на датчик. Угол может варьироваться с высотой изображения, т.е. расстоянием от центра оптической оси 45 объектива 41 камеры. Обычно, чем дальше располагается датчик от оптической оси 45, тем короче должно быть фокусное расстояние у конденсорных линз. В типовой конфигурации фокусное расстояние микролинз увеличивается при удалении от центра поверхности 43 чувствительного элемента, и для линз 122 фокусное расстояние может тригонометрически зависеть от расстояния F до центра 114 поверхности 43 чувствительного элемента. Тем не менее, в случае вариантов осуществления согласно фиг.10 со смещением ΔА, микролинзы могут быть адаптированы к оптическому центру, который еще определяется оптической осью 45, которая больше не является центром поверхности 43 чувствительного элемента. Поэтому в некоторых вариантах осуществления изобретения для поверхности 43 чувствительного элемента определяется предполагаемый оптический центр 45, который может не совпадать с физическим центром 114 поверхности 43 чувствительного элемента и который будет действительным оптическим центром при объединении с объективом 41.The design and location of the microlenses may depend on the angle of the main beam in the beam of light incident on the sensor. The angle may vary with the height of the image, i.e. the distance from the center of the optical axis 45 of the camera lens 41. Usually, the farther the sensor is located from the optical axis 45, the shorter the focal length of the condenser lenses should be. In a typical configuration, the focal length of the microlenses increases with distance from the center of the sensor surface 43, and for lenses 122, the focal length may trigonometrically depend on the distance F to the center 114 of the sensor surface 43. However, in the case of the embodiments of FIG. 10 with an offset ΔA, the microlenses can be adapted to an optical center, which is still defined by the optical axis 45, which is no longer the center of the surface 43 of the sensor element. Therefore, in some embodiments of the invention, the estimated optical center 45 is determined for the sensor surface 43, which may not coincide with the physical center 114 of the sensor surface 43 and which will be the actual optical center when combined with the lens 41.

Микролинзы каждого пикселя поверхности 43 чувствительного элемента могут быть тщательно спроектированы относительно заданного оптического центра, обычно с увеличивающимся фокусным расстоянием как функции увеличивающегося расстояния до оптического центра. Фокусное расстояние для линз 122 может тригонометрически зависеть от расстояния Е=(F+ΔА) до оптического центра, то есть оптической оси 45. Конкретные соотношения зависят от общей конфигурации фотокамеры и положения, которые нужно учитывать, хорошо известны специалисту в данной области техники.The microlenses of each pixel of the sensor surface 43 can be carefully designed with respect to a given optical center, usually with increasing focal length as a function of increasing distance to the optical center. The focal length for lenses 122 may trigonometrically depend on the distance E = (F + ΔA) to the optical center, that is, the optical axis 45. The specific ratios depend on the overall configuration of the camera and the position to be taken into account, well-known to the person skilled in the art.

Как проиллюстрировано на фиг.3, использование, например, мобильного телефона для видеоконференции часто происходит под небольшим углом к лицу пользователя. Тем не менее, искаженная перспектива получится в результате скошенного угла между лицом пользователя и оптической осью камеры. Более того, этот недостаток применим, даже когда камера конфигурируется для съемки изображения в поле зрения, имеющем главную линию визирования, которая находится под углом к оптической оси фотокамеры, например, в вариантах осуществления, описанных со ссылкой на фиг.7-11. Так как камера не удерживается параллельно лицу пользователя, лицо в нижней области изображается шире, чем в верхней области. Изображение на фиг.12 ясно иллюстрирует этот эффект, когда пользователь держит прямоугольный лист бумаги перед лицом, пока снимают изображение с использованием камеры, сконфигурированной согласно варианту осуществления фиг.7-9 со смещенной относительно центра областью изображения. Это часто называется "трапецеидальным искажением".As illustrated in FIG. 3, the use of, for example, a mobile phone for video conferencing often occurs at a slight angle to the face of the user. However, a distorted perspective will result from a beveled angle between the user's face and the optical axis of the camera. Moreover, this drawback is applicable even when the camera is configured to capture an image in a field of view having a main line of sight that is at an angle to the optical axis of the camera, for example, in the embodiments described with reference to FIGS. Since the camera is not held parallel to the user's face, the face in the lower region is displayed wider than in the upper region. The image in FIG. 12 clearly illustrates this effect when the user holds a rectangular sheet of paper in front of the face while taking an image using the camera configured according to the embodiment of FIGS. 7-9 with the image area offset from the center. This is often called keystone distortion.

В традиционной профессиональной фотографии этого трапецеидального искажения можно избежать путем использования специальной оптики, например объективов со смещением и наклоном, т.е. с контролем перспективы, либо специально разработанных камер с возможностями контроля перспективы. В области цифровой обработки изображений корректировка перспективы является обычной возможностью. Инструментальные средства, такие как Adobe® Photoshop, предоставляют такую возможность. Такие возможности могут также использоваться в электронных устройствах для видеоконференции, например мобильных телефонах со встроенными камерами, для постобработки изображений. Однако эта корректировка перспективы очень зависит от вычислительных возможностей. Особенно это является проблемой с движущимися изображениями, т.е. видео, с множеством кадров в секунду для обработки. Постобработка, следовательно, неприменима для реализации в системе, где центральный процессор 20 мобильного телефона используется одновременно для кодирования видео и других задач.In traditional professional photography, this keystone distortion can be avoided by using special optics, such as lenses with offset and tilt, i.e. with perspective control, or specially designed cameras with perspective control capabilities. In the field of digital image processing, perspective adjustment is a common possibility. Tools such as Adobe® Photoshop provide this capability. Such capabilities can also be used in electronic video conferencing devices, such as mobile phones with integrated cameras, for post-processing of images. However, this perspective adjustment is highly dependent on computing capabilities. This is especially a problem with moving images, i.e. video, with a lot of frames per second for processing. Post-processing, therefore, is not applicable for implementation in a system where the central processor 20 of a mobile phone is used simultaneously for encoding video and other tasks.

Также желательно обрабатывать изображение с бóльшим разрешением и углом съемки, чем итоговое изображение, с целью повышения качества изображения. Это вызывает необходимость передавать от камеры к хост-системе изображение большего размера, то есть больше данных. Хост-система также должна обрабатывать нестандартный размер изображения и преобразовывать его в заданный формат.It is also advisable to process an image with a higher resolution and shooting angle than the final image in order to improve image quality. This necessitates the transfer of a larger image, i.e. more data, from the camera to the host system. The host system must also process a non-standard image size and convert it to the specified format.

Один вариант осуществления содержит возможность оперирования с исправлением перспективы с помощью конвейера изображений и процессора сигналов изображения (ISP) камеры. Есть несколько преимуществ с этим исполнением, которые будут объяснены далее. Также желательно использовать датчик изображения и оптику, которые предусматривают несколько больший угол обзора, чем ожидаемый от итогового изображения.One embodiment includes the ability to correct perspectives using an image pipeline and a camera image signal processor (ISP). There are several advantages with this implementation, which will be explained later. It is also desirable to use an image sensor and optics, which provide a slightly larger viewing angle than expected from the final image.

Как видно из фиг.12, изображение выглядит слишком широким в нижней части по сравнению с верхней частью. Чтобы исправить это, реализуется принцип корректировки перспективы, где сжимаются нижние строки пикселей. Как мы считаем, к каждой строке пикселей применяется небольшое сжатие, по мере того как мы перемещаемся вверх в изображении. В результате верхняя строка сжимается в наименьшей степени, либо вообще не сжимается. Созданное изображение в нижней части будет уже, чем в верхней части. Для избежания этого необходимо обрезать изображение, либо в качестве альтернативы для начала использовать изображение завышенного размера. Во втором случае процесс корректировки перспективы работает на более длинной строке данных изображения в нижней части, чем в верхней части. Результатом является выходное изображение из ISP с прямыми углами.As can be seen from Fig, the image looks too wide in the lower part compared with the upper part. To fix this, the principle of perspective adjustment is implemented, where the lower rows of pixels are compressed. We believe that a slight compression is applied to each row of pixels as we move up in the image. As a result, the top row is compressed to the least degree, or not compressed at all. The created image at the bottom will be narrower than at the top. To avoid this, you need to crop the image, or as an alternative to start using an oversized image. In the second case, the perspective adjustment process works on a longer line of image data in the lower part than in the upper part. The result is an output image from an ISP with right angles.

Предпочтительная реализация механизма исправления перспективы определяется в оборудовании или микропрограммном обеспечении камеры. Типовой модуль цифровой камеры для мобильной камеры, имеющей встроенный ISP, обладает функцией масштабирования. Функция масштабирования может быть реализована как цифровой аппаратный блок или как компьютерный код, исполняемый процессором, либо как сочетание аппаратных средств и компьютерного кода. Однако, как упоминалось ранее, не является необходимым, чтобы модуль ISP был интегрированным, он вполне может подключаться кабелем к опорной конструкции или корпусу модуля камеры. В этом смысле цифровая камера включает в себя модуль ISP, который содержит процессор и ассоциированное программное обеспечение ISP. Может быть установлено обычное масштабирующее устройство для горизонтального и вертикального масштабирования изображения. Оно может быть сконфигурировано для независимого масштабирования двух измерений. Таким образом, изображение может быть сжато только по одному измерению, оставляя другое нетронутым. Масштабирующее устройство также может быть сконфигурировано для масштабирования изображения с коэффициентом n, где n - число с плавающей запятой, например, 1:1,2 и т.д. В предпочтительном варианте осуществления отдельные строки масштабируются с использованием алгоритма интерполяции, например линейной интерполяции, для определения величины сигнала для вывода для некоторого пикселя, используя величины сигналов, обнаруженные в двух соседних пикселях рассматриваемой строки.The preferred implementation of the perspective correction mechanism is determined by the camera hardware or firmware. A typical digital camera module for a mobile camera with a built-in ISP has a zoom function. The scaling function can be implemented as a digital hardware unit or as computer code executed by a processor, or as a combination of hardware and computer code. However, as mentioned earlier, it is not necessary for the ISP module to be integrated; it can very well be connected by cable to the supporting structure or housing of the camera module. In this sense, the digital camera includes an ISP module that includes a processor and associated ISP software. A conventional zoom device for horizontal and vertical scaling of the image can be installed. It can be configured to independently scale two dimensions. Thus, an image can only be compressed in one dimension, leaving the other untouched. The scaling device can also be configured to scale the image with a factor of n, where n is a floating point number, for example, 1: 1,2, etc. In a preferred embodiment, the individual rows are scaled using an interpolation algorithm, such as linear interpolation, to determine the magnitude of the signal to output for a certain pixel, using the magnitudes of the signals found in two adjacent pixels of the row in question.

Согласно предпочтительному варианту осуществления, каждая строка изображения масштабируется на коэффициент масштабирования, отличный от предыдущей и следующей строки. Предпочтительно, чтобы ISP вычислял коэффициенты масштабирования для каждой строки из входного значения начальных и конечных коэффициентов масштабирования, например коэффициентов масштабирования первой и последней строки. Коэффициенты масштабирования могут выражаться соотношением, заданным входной длиной строки и заданной выходной длиной строки, выраженных в количестве пикселей.According to a preferred embodiment, each image line is scaled by a scaling factor different from the previous and next line. Preferably, the ISP calculates the scaling factors for each row from the input value of the starting and ending scaling factors, for example, the scaling factors of the first and last row. Scaling factors can be expressed as a ratio given by the input line length and the given output line length, expressed in the number of pixels.

В предпочтительном варианте осуществления используются фиксированные значения коэффициентов масштабирования, так как вариант использования видеотелефонии достаточно четко определен, и угол θ между лицом пользователя и телефоном может быть оценен с достаточной точностью. Поскольку пользователь смотрит на дисплей, на котором показывается его или ее изображение, снятое камерой электронного устройства, то пользователь будет автоматически держать электронное устройство таким образом, что изображение лица центрировано на дисплее практически вертикально.In a preferred embodiment, fixed scaling factors are used, since the use of video telephony is clearly defined, and the angle θ between the user's face and the telephone can be estimated with sufficient accuracy. Since the user is looking at the display, which shows his or her image taken by the camera of the electronic device, the user will automatically hold the electronic device so that the face image is centered on the display almost vertically.

Другим важным свойством масштабирующего устройства, которое нужно представить, является центрирование строк. Изображение поэтому масштабируется, предпочтительно, таким образом, что центральная вертикальная линия через все входное изображение сохраняется в выходном изображении. Это может достигаться путем вычисления начальной точки для каждой входной строки. Пиксели перед начальной точкой каждой строки отбрасываются как замыкающие пиксели. В одном варианте осуществления начальная точка каждой строки вычисляется из следующего уравнения:Another important property of the scaling device to be imagined is line centering. The image is therefore scaled, preferably, in such a way that the center vertical line through the entire input image is stored in the output image. This can be achieved by calculating the starting point for each input line. Pixels before the starting point of each row are discarded as trailing pixels. In one embodiment, the starting point of each row is calculated from the following equation:

Figure 00000001
,
Figure 00000001
,

где startn - первый пиксель для обработки в строке n; l - количество пикселей во всей строке; и ln - количество пикселей для обработки в строке n.where start n is the first pixel to be processed in line n; l is the number of pixels in the entire line; and l n is the number of pixels to process in row n.

Масштабирующее устройство, которое спроектировано для масштабирования вертикального измерения, зависит от блока хранения информации, хранящего две или более строк данных изображения. Масштабирующему устройству, которое спроектировано только для масштабирования горизонтального измерения, будет нужен только блок хранения информации, хранящей небольшое количество пикселей или, на крайний случай, всю строку данных изображения. Таким образом, чтобы сделать экономичный образец, не нужно полное масштабирующее устройство для обоих измерений, если вертикальное масштабирование не нужно для других целей.A scaling device that is designed to scale a vertical measurement depends on an information storage unit that stores two or more lines of image data. A scaling device that is designed only to scale horizontal measurements will only need an information storage unit that stores a small number of pixels or, in extreme cases, the entire row of image data. Thus, in order to make an economical sample, a complete scaling device for both measurements is not necessary if vertical scaling is not necessary for other purposes.

Для достижения хорошего качества изображения датчик может быть спроектирован, по меньшей мере, с четырехкратным разрешением, чем требуемое в выходном изображении, т.е., по меньшей мере, с удвоенным количеством пикселей в обоих измерениях х и у. Примером является использование ранее упомянутого чувствительного элемента 400×400 для выходного изображения формата QCIF. В этом случае вертикальное масштабирующее устройство может быть упрощено, так как ему нужно только две строки из данных изображения для вертикального масштабирования.To achieve good image quality, the sensor can be designed with at least four times the resolution required in the output image, i.e. with at least twice the number of pixels in both x and y dimensions. An example is the use of the previously mentioned 400 × 400 sensor for an output image of QCIF format. In this case, the vertical scaling device can be simplified since it only needs two rows of image data for vertical scaling.

Фиг.13 иллюстрирует изображение пользователя, захваченное пользователем с косым углом θ между оптической осью фотокамеры и лицом пользователя, соответствующим фиг.3. Даже не зная человека, можно отметить, что подбородок пользователя кажется шире, чем в реальности, по сравнению со лбом, так как все изображение наклонено.FIG. 13 illustrates a user image captured by the user with an oblique angle θ between the optical axis of the camera and the user's face corresponding to FIG. Without even knowing the person, it can be noted that the user's chin seems to be wider than in reality, compared with the forehead, since the entire image is tilted.

Однако же на изображении фиг.14 эффект искажения от наклонения угла обзора исправлен в соответствии с изобретением путем масштабирования последовательно каждой строки или линии пикселей до уровня, соответствующего косому углу θ. Тем самым, перспектива является верной, даже если изображение фиг.14 наклонено.However, in the image of Fig. 14, the distortion effect from the inclination of the viewing angle is corrected in accordance with the invention by scaling each row or line of pixels sequentially to a level corresponding to the oblique angle θ. Thus, the perspective is true even if the image of FIG. 14 is tilted.

В варианте осуществления изобретения изображение прямоугольного объекта известных пропорций, удерживаемого под скошенным углом к чувствительному элементу камеры, может использоваться для вычисления и настройки коэффициентов масштабирования. Такая установка коэффициентов масштабирования может быть выполнена на производстве и затем использоваться в качестве настройки по умолчанию. В качестве альтернативы пользователь может иметь возможность запустить алгоритм установки посредством использования клавишной панели 12 в устройстве 10, на основе которой прямоугольный объект удерживается перед и параллельно лицу пользователя. Предпочтительно, чтобы алгоритм установки запрашивал пользователя удерживать объект известных пропорций, например, лист формата А4 или letter ("письмо"), и подтвердить посредством клавишной панели 12, какой тип объекта используется. Камера затем переключается на съемку изображения объекта, и процессором 20 запускается программное приложение определения контура для идентификации изображения объекта, как показано на фиг.15. Независимо от того, выполняется вычисление и настройка коэффициентов масштабирования на производстве или после продажи пользователем, нужны дополнительные вычисления после того, как определен контур изображения, как описывается далее со ссылкой на фиг.15.In an embodiment of the invention, the image of a rectangular object of known proportions, held at an oblique angle to the sensor element of the camera, can be used to calculate and adjust the scaling factors. This setting of scaling factors can be done in production and then used as the default setting. Alternatively, the user may be able to run the installation algorithm by using the keypad 12 in the device 10, based on which a rectangular object is held in front of and parallel to the user's face. It is preferable that the installation algorithm prompts the user to hold an object of known proportions, for example, an A4 sheet or letter ("letter"), and confirm with the keypad 12 which type of object is being used. The camera then switches to taking an image of the object, and the processor 20 starts the loop detection software for identifying the image of the object, as shown in FIG. Regardless of the calculation and adjustment of the scaling factors at the factory or after the sale by the user, additional calculations are necessary after the image contour is determined, as described below with reference to FIG.

Фиг.15 иллюстрирует изображение листа бумаги формата А4. В этом типовом варианте осуществления чувствительный элемент фотокамеры имеет 400×400 пикселей, что означает, что есть пространство для изображения CIF из 355×288 пикселей. Тем не менее, выходным изображением, которое нужно создать, является QCIF из 176×144 пикселей, но вместо использования только части поверхности чувствительного элемента размера QCIF, считывается изображение CIF и уменьшается в масштабе на коэффициент 2 по высоте и ширине до QCIF, для получения лучшего качества изображения. Лист А4 имеет высоту, которая равна квадратному корню двукратной ширины листа. На фиг.15 показано изображение листа А4 высотой в b строк пикселей, начиная со строк d выше начальной строки для изображения CIF. Кроме того, изображение занимает с пикселей по нижнему краю и а пикселей по верхнему краю. Для вычисления коэффициентов масштабирования сначала должна быть определена пара констант:15 illustrates an image of a sheet of A4 paper. In this exemplary embodiment, the sensor element of the camera has 400 × 400 pixels, which means that there is space for a CIF image of 355 × 288 pixels. However, the output image that you want to create is a QCIF of 176 × 144 pixels, but instead of using only part of the surface of the QCIF size sensor, the CIF image is read and scaled down by a factor of 2 in height and width to QCIF, to get the best image quality. Sheet A4 has a height that is equal to the square root of twice the width of the sheet. On Fig shows the image of the sheet A4 with a height of b lines of pixels, starting with lines d above the initial line for the image CIF. In addition, the image occupies pixels along the bottom and pixels along the top. To calculate the scaling factors, a pair of constants must first be defined:

Figure 00000002
;
Figure 00000002
;

Figure 00000003
;
Figure 00000003
;

Figure 00000004
;
Figure 00000004
;

m=j-kd.m = j-kd.

Для строки n коэффициент Sn масштабирования тогда будет равен:For row n, the scaling factor S n will then be equal to:

Sn=m+nk.S n = m + nk.

В предпочтительном варианте осуществления считываются и масштабируются только пиксели, которые будут участвовать в изображении QCIF, для минимизирования вычисления, что особенно выгодно для получения видеоизображений. В таком варианте осуществления заданная выходная длина каждой строки равна 176 пикселям. Это означает, что длина Ln строки n, которую нужно масштабировать, равна:In a preferred embodiment, only pixels that will participate in the QCIF image are read and scaled to minimize computation, which is especially advantageous for acquiring video images. In such an embodiment, the predetermined output length of each row is 176 pixels. This means that the length L n of the string n to be scaled is:

Figure 00000005
.
Figure 00000005
.

В качестве примера допустим, что следующие значения были обнаружены в изображении фиг.15, вычислены в количестве строк для b и d и количестве пикселей на строку для а и с:As an example, suppose that the following values were found in the image of FIG. 15, calculated in the number of rows for b and d and the number of pixels per row for a and c:

а=150;a = 150;

b=255;b = 255;

с=200;c = 200;

d=5.d = 5.

Используя вышеприведенные формулы, получаем следующий результат:Using the above formulas, we obtain the following result:

S0=0,448;S 0 = 0.448;

S287=0,616;S 287 = 0.616;

L0=393;L 0 = 393;

L287=285.L 287 = 285.

Для проверки мы можем вычислить масштабированную ширину а' верхнего края листа и масштабированную ширину с' нижнего края листа, которые будут равны:For verification, we can calculate the scaled width a 'of the top edge of the sheet and the scaled width c' of the bottom edge of the sheet, which will be equal to:

а'=а*S260=90;a '= a * S 260 = 90;

c'=c*S5=90;c '= c * S 5 = 90;

следовательно - прямоугольное изображение. Итак, коэффициенты масштабирования для каждой строки n, тем самым, вычислены и установлены, а также определено количество пикселей для обработки до масштабированного изображения для каждой строки для сценария получения изображения, где используется косой угол θ, как на фиг.15. Предпочтительно, чтобы косой угол не измерялся или обнаруживался, когда используется устройство, вместо этого некоторый косой угол θ задается в качестве ожидаемого косого угла для использования, когда пользователь работает с устройством. Обычно косой угол может быть меньше 20°, например 10°.hence a rectangular image. So, the scaling factors for each row n are thus calculated and set, and the number of pixels for processing to a scaled image for each row is determined for the image acquisition scenario where oblique angle θ is used, as in FIG. 15. Preferably, the oblique angle is not measured or detected when the device is used, instead, some oblique angle θ is set as the expected oblique angle for use when the user is working with the device. Typically, the oblique angle may be less than 20 °, for example 10 °.

Для любого последующего изображения, захваченного камерой 14, каждая строка n должна быть масштабирована до 176 целевых пикселей, что есть 2×88 пикселей симметрично относительно вертикальной центральной оси. Для строки n первый целевой пиксель находится на 88 пикселей от центральной оси, и соответствующее положение в обнаруженном изображении, следовательно, равно 88/Sn. Это положение может не являться абсолютно одним отдельным пикселем поверхности чувствительного элемента, из которого может быть извлечено значение сигнала изображения. Вместо этого значение сигнала изображения для этого положения, предпочтительно, интерполируется из соседних пикселей по любой известной схеме. Предпочтительно, чтобы значения уровня яркости и коды цветов интерполировались отдельно. Полученное значение(я) сигнала изображения затем присваивается первому целевому пикселю в выходном изображении. Следующим целевым пикселем, которому необходимо присвоить значение сигнала изображения, является 87/Sn, и так далее, пока не достигнута вертикальная центральная ось. Другая сторона центральной оси обрабатывается соответствующим образом, поскольку изображение симметрично масштабируется относительно этой оси. Процесс масштабирования затем повторяется построчно, пока не будут обработаны все 288 строк целевого изображения.For any subsequent image captured by camera 14, each line n must be scaled to 176 target pixels, which is 2 × 88 pixels symmetrically with respect to the vertical center axis. For row n, the first target pixel is 88 pixels from the center axis, and the corresponding position in the detected image is therefore 88 / S n . This position may not be absolutely one separate pixel of the surface of the sensing element from which the value of the image signal can be extracted. Instead, the value of the image signal for this position is preferably interpolated from neighboring pixels by any known pattern. Preferably, the brightness level values and color codes are interpolated separately. The obtained value (s) of the image signal is then assigned to the first target pixel in the output image. The next target pixel that needs to be assigned the value of the image signal is 87 / S n , and so on, until the vertical center axis is reached. The other side of the central axis is processed accordingly, since the image is scaled symmetrically about this axis. The scaling process is then repeated line by line until all 288 lines of the target image are processed.

Путем выполнения этих этапов, используя процессор сигналов изображения в фотокамере, мощность вычислений сохраняется, и цифровой процессор 20 сигналов в устройстве 10 может, по существу, использоваться для других целей. Настоящий вариант осуществления изобретения, адаптированный для исправления искажений перспективы изображения, отличается от ранее предложенных решений, которые основываются на постобработке изображений, в том, что это предложенное решение предлагает включить обработку в конвейер изображений камеры/ISP. Описанный образец будет корректировать перспективу немедленно, без затрагивания процессора хост-системы, который работает в многозадачном режиме. Это делает изобретение особенно подходящим для карманных устройств, например мобильных телефонов со встроенной камерой, где малый вес и компактный размер являются существенными требованиями рынка. Предпочтительные варианты осуществления предложенного образца дополнительно отличаются от распространенных решений масштабирующих устройств тем, что каждая строка данных элемента изображения может масштабироваться с иным коэффициентом, чем другие строки в массиве изображения. Они также могут быть спроектированы без какого-либо или очень небольшого дополнительного оборудования, например логических схем, но в особенности без дорогостоящих буферов на строку.By performing these steps using the image signal processor in the camera, the computing power is saved, and the digital signal processor 20 in the device 10 can essentially be used for other purposes. The present embodiment adapted to correct image perspective distortion differs from the previously proposed solutions, which are based on post-processing of images, in that this proposed solution proposes to include processing in the camera / ISP image pipeline. The described sample will correct the perspective immediately, without affecting the host processor that is multitasking. This makes the invention particularly suitable for handheld devices, such as mobile phones with an integrated camera, where light weight and compact size are essential market requirements. Preferred embodiments of the proposed sample further differ from common solutions of scaling devices in that each row of data of an image element can be scaled with a different coefficient than other rows in the image array. They can also be designed without any or very small additional equipment, such as logic circuits, but especially without expensive line buffers.

Образец также специфичен тем, что масштабирующее устройство может центрировать изображение автоматически, что является предпочтительным в приложениях для видеоконференции. Предложенное решение, предпочтительно, использует фиксированную настройку для исправления перспективы, так как вариант использования видеотелефонии хорошо определен.The sample is also specific in that the zoom device can center the image automatically, which is preferred in video conferencing applications. The proposed solution preferably uses a fixed setting to correct the perspective, since the use of video telephony is well defined.

На чертежах и в описании изобретения раскрыты типовые варианты осуществления изобретения, и несмотря на то, что применяются специфические термины, они используются только в общем и описательном значении, а не с целью ограничения объема изобретения, излагаемого в нижеследующей формуле изобретения.In the drawings and in the description of the invention, typical embodiments of the invention are disclosed, and although specific terms are used, they are used only in a general and descriptive sense, and not for the purpose of limiting the scope of the invention set forth in the following claims.

Claims (25)

1. Цифровая камера, содержащая:
опорную конструкцию (44);
объектив (41), удерживаемый опорной конструкцией (44) и имеющий оптическую ось (45);
чувствительный элемент (42), удерживаемый опорной конструкцией (44) под объективом (41), содержащий некоторое количество смежных строк пикселей, где каждая строка пикселей содержит некоторое количество пикселей, и каждый пиксель включает в себя датчик изображения; и
блок (46) процессора сигналов изображения, непосредственно подключенный к чувствительному элементу (42), включающий в себя устройство масштабирования изображения, сконфигурированное для масштабирования каждой строки пикселей согласно коэффициенту масштабирования, который отличается от смежной строки пикселей, так что изображение обрабатывается в конвейере изображений камеры.
1. A digital camera containing:
supporting structure (44);
a lens (41) held by the support structure (44) and having an optical axis (45);
a sensor (42) held by the support structure (44) under the lens (41), comprising a number of adjacent rows of pixels, where each row of pixels contains a number of pixels, and each pixel includes an image sensor; and
an image signal processor unit (46) directly connected to the sensing element (42) including an image scaling device configured to scale each row of pixels according to a scaling factor that differs from an adjacent row of pixels, so that the image is processed in the camera’s image pipeline.
2. Цифровая камера по п.1, в которой:
устройство масштабирования изображения конфигурируется для масштабирования каждой строки пикселей согласно коэффициенту масштабирования, имеющему величину, пропорциональную положению строки между начальной строкой и конечной строкой.
2. The digital camera according to claim 1, in which:
the image scaling device is configured to scale each row of pixels according to a scaling factor having a value proportional to the position of the line between the start line and the end line.
3. Цифровая камера по п.1, в которой:
устройство масштабирования изображения конфигурируется реагирующим на ввод коэффициента масштабирования начальной строки и коэффициента масштабирования конечной строки и содержит функцию вычисления, сконфигурированную для вычисления коэффициентов масштабирования для каждой строки между начальной строкой и конечной строкой.
3. The digital camera according to claim 1, in which:
the image scaling device is configured to be responsive to input of a scaling factor of the start line and a scaling factor of the end line, and comprises a calculation function configured to calculate scaling factors for each line between the start line and the end line.
4. Цифровая камера по п.1, в которой:
устройство масштабирования изображения конфигурируется для вычисления входной длины строки для строки пикселей как соотношения между нужной выходной длиной строки, общей для всех строк пикселей, и коэффициента масштабирования для этой строки; и
конфигурируется для масштабирования сигналов изображения, обнаруженных пикселями этой строки, и которые находятся в пределах входной длины строки пикселей, до нужной выходной длины строки.
4. The digital camera according to claim 1, in which:
an image scaling device is configured to calculate an input line length for a row of pixels as a ratio between a desired output line length common to all pixel lines and a scale factor for that line; and
Configurable to scale the image signals detected by the pixels of this line and which are within the input line length of the pixels to the desired output line length.
5. Цифровая камера по п.1, в которой:
устройство масштабирования изображения конфигурируется для создания выходного изображения с центрированными строками.
5. The digital camera according to claim 1, in which:
the image scaling device is configured to create an output image with centered lines.
6. Цифровая камера по п.5, в которой:
устройство масштабирования изображения конфигурируется для вычисления центральной начальной точки для каждой входной строки от чувствительного элемента, используя формулу:
Figure 00000001
,
где startn - первый пиксель для обработки в строке n; l - количество пикселей во всей строке; и ln - количество пикселей для обработки в строке n.
6. The digital camera according to claim 5, in which:
the image scaling device is configured to calculate a central starting point for each input line from the sensor using the formula:
Figure 00000001
,
where start n is the first pixel to be processed in line n; l is the number of pixels in the entire line; and l n is the number of pixels to process in row n.
7. Цифровая камера по п.1, в которой:
модуль камеры образован опорной конструкцией, и где процессор сигналов изображения включен в модуль камеры.
7. The digital camera according to claim 1, in which:
the camera module is formed by a support structure, and where the image signal processor is included in the camera module.
8. Цифровая камера по п.1, в которой:
устройство масштабирования изображения конфигурируется для определения положения в заранее установленном формате изображения выходного пикселя некоторой строки пикселей, для определения соответствующего положения в обнаруженном изображении путем обратного масштабирования с использованием коэффициента масштабирования для упомянутой некоторой строки, и для определения значения яркости для выходного пикселя путем интерполирования значений яркости, которые обнаружены пикселями, смежными с упомянутым соответствующим положением в обнаруженном изображении.
8. The digital camera according to claim 1, in which:
the image scaling device is configured to determine a position in a predetermined image format of the output pixel of a certain row of pixels, to determine the corresponding position in the detected image by back-scaling using the scaling factor for said certain row, and to determine the brightness value for the output pixel by interpolating the brightness values, which are detected by pixels adjacent to said corresponding position in detected image.
9. Цифровая камера по п.1, в которой устройство масштабирования изображения конфигурируется для вычисления коэффициентов масштабирования, зависящих от заданного предполагаемого косого угла между плоскостью изображения чувствительного элемента и объектом, изображение которого необходимо снять.9. The digital camera according to claim 1, in which the image scaling device is configured to calculate the scaling factors, depending on a given estimated oblique angle between the image plane of the sensor and the object whose image you want to take. 10. Цифровая камера по п.1, в которой поле зрения камеры определяется рабочей областью поверхности чувствительного элемента, которая смещена относительно центра относительно оптической оси объектива.10. The digital camera according to claim 1, in which the field of view of the camera is determined by the working area of the surface of the sensing element, which is offset from the center relative to the optical axis of the lens. 11. Цифровая камера по п.1, в которой устройство масштабирования изображения конфигурируется для вычисления коэффициентов Sn масштабирования для каждой строки n посредством функции Sn=m+n·k, где m и k - константы.11. The digital camera according to claim 1, in which the image scaling device is configured to calculate the scaling factors S n for each row n by the function S n = m + n · k, where m and k are constants. 12. Устройство связи, содержащее:
корпус;
модуль цифровой камеры согласно любому из пп.1-11; и центральный процессор (20), выполненный с возможностью обмена информацией с указанной камерой.
12. A communication device comprising:
housing;
a digital camera module according to any one of claims 1 to 11; and a central processor (20) configured to exchange information with said camera.
13. Устройство связи по п.12, дополнительно содержащее:
приемопередатчик радиосигнала; и
центральный процессор, сконфигурированный для предоставления приемопередатчику радиосигнала масштабированного видеосигнала от модуля цифровой камеры.
13. The communication device according to item 12, further comprising:
radio signal transceiver; and
a central processor configured to provide the transceiver of the radio signal with a scaled video signal from the digital camera module.
14. Устройство связи по п.12, дополнительно содержащее:
дисплей, сконфигурированный для показа масштабированного изображения, которое предоставлено модулем цифровой камеры.
14. The communication device according to item 12, further comprising:
a display configured to display a scaled image that is provided by a digital camera module.
15. Способ для съемки изображения с использованием цифровой камеры электротехнического устройства, содержащий этапы, на которых:
направляют камеру на объект;
обнаруживают сигналы изображения в чувствительном элементе, содержащем некоторое количество смежных строк пикселей, где каждая строка пикселей содержит некоторое количество пикселей, и каждый пиксель включает в себя датчик изображения;
обрабатывают обнаруженные сигналы изображения в конвейере изображений камеры путем масштабирования каждой сроки пикселей согласно коэффициенту масштабирования, который отличается от смежной строки пикселей, чтобы предоставить масштабированное изображение, используя процессор сигналов изображения, подключенный непосредственно к чувствительному элементу; и
выводят масштабированное изображение с помощью центрального процессора.
15. A method for capturing images using a digital camera of an electrical device, comprising the steps of:
direct the camera at the subject;
detecting image signals in a sensing element containing a number of adjacent rows of pixels, where each row of pixels contains a number of pixels, and each pixel includes an image sensor;
processing the detected image signals in the camera image pipeline by scaling each pixel timing according to a scaling factor that differs from the adjacent pixel row to provide a scaled image using an image signal processor connected directly to the sensor; and
output a scaled image using a central processor.
16. Способ по п.15, дополнительно содержащий этап, на котором:
масштабируют каждую строку пикселей согласно коэффициенту масштабирования, имеющему величину, пропорциональную положению строки между начальной строкой и конечной строкой.
16. The method according to clause 15, further containing a stage in which:
scaling each row of pixels according to a scaling factor having a value proportional to the position of the row between the start row and the end row.
17. Способ по п.15, содержащий этапы, на которых:
задают коэффициент масштабирования начальной строки и коэффициент масштабирования конечной строки; и
вычисляют коэффициенты масштабирования для каждой строки между начальной строкой и конечной строкой.
17. The method of claim 15, comprising the steps of:
set the scaling factor of the start line and the scaling factor of the end line; and
calculating scaling factors for each line between the start line and the end line.
18. Способ по п.15, содержащий этапы, на которых:
вычисляют входную длину строки для строки пикселей как
соотношение между нужной выходной длиной строки, общей для всех строк пикселей, и коэффициента масштабирования для этой строки; и
масштабируют сигналы изображения, обнаруженные пикселями этой строки, и которые находятся в пределах входной длины строки пикселей, до нужной выходной длины строки.
18. The method of claim 15, comprising the steps of:
compute the input string length for the pixel string as
the ratio between the desired output line length, common to all lines of pixels, and the scaling factor for this line; and
scale the image signals detected by the pixels of this line, and which are within the input line length of the pixels, to the desired output line length.
19. Способ по п.15, содержащий этап, на котором:
предоставляют масштабированное изображение с центрированными строками.
19. The method according to clause 15, containing a stage in which:
provide a scaled image with centered lines.
20. Способ по п.15, содержащий этап, на котором:
вычисляют центральную начальную точку для каждой входной строки от чувствительного элемента, используя формулу:
Figure 00000006
,
где startn - первый пиксель для обработки в строке n; l - количество пикселей во всей строке; и ln - количество пикселей для обработки в строке n.
20. The method according to clause 15, containing the stage at which:
calculate the center starting point for each input line from the sensor using the formula:
Figure 00000006
,
where start n is the first pixel to be processed in line n; l is the number of pixels in the entire line; and l n is the number of pixels to process in row n.
21. Способ по п.15, содержащий этап, на котором:
обрабатывают обнаруженное изображение посредством процессора сигналов изображения, выполненного как единое целое с цифровой камерой в модуле камеры устройства связи.
21. The method according to clause 15, containing a stage in which:
process the detected image by the image signal processor, made as a unit with a digital camera in the camera module of the communication device.
22. Способ по п.15, содержащий этап, на котором:
передают масштабированное изображение удаленному приемнику, используя приемопередатчик радиосигнала в терминале радиосвязи.
22. The method according to clause 15, containing the stage on which:
transmitting the scaled image to the remote receiver using the radio transceiver in the radio terminal.
23. Способ по п.15, содержащий этап, на котором:
представляют масштабированное изображение на дисплее.
23. The method according to clause 15, containing a stage in which:
represent a scaled image on the display.
24. Способ по п.15, содержащий этапы, на которых:
задают формат изображения;
определяют положение выходного пикселя в некоторой строке пикселей в формате изображения;
определяют соответствующее положение в обнаруженном изображении путем обратного масштабирования с использованием коэффициента масштабирования для упомянутой некоторой строки; и
определяют значение яркости для выходного пикселя путем интерполирования значений яркости, которые обнаружены пикселями, смежными с упомянутым соответствующим положением в обнаруженном изображении.
24. The method of claim 15, comprising the steps of:
set the image format;
determine the position of the output pixel in a row of pixels in the image format;
determining an appropriate position in the detected image by backscaling using the scaling factor for said row; and
determining a brightness value for the output pixel by interpolating the brightness values that are detected by pixels adjacent to said corresponding position in the detected image.
25. Способ по п.15, содержащий этап, на котором:
вычисляют коэффициенты масштабирования, зависящие от предварительно заданного предполагаемого косого угла между плоскостью изображения чувствительного элемента и объектом, изображение которого необходимо снять.
25. The method according to clause 15, containing the stage on which:
scaling factors are calculated depending on a predetermined estimated oblique angle between the image plane of the sensor and the object whose image you want to take.
RU2008134116/09A 2006-01-20 2006-08-11 Photographic camera for electronic device RU2417545C2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US76089906P 2006-01-20 2006-01-20
US60/760,899 2006-01-20
US11/482,323 2006-07-07
US11/482,323 US7918614B2 (en) 2006-01-20 2006-07-07 Camera for electronic device

Publications (2)

Publication Number Publication Date
RU2008134116A RU2008134116A (en) 2010-02-27
RU2417545C2 true RU2417545C2 (en) 2011-04-27

Family

ID=38285678

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2008134116/09A RU2417545C2 (en) 2006-01-20 2006-08-11 Photographic camera for electronic device

Country Status (8)

Country Link
US (1) US7918614B2 (en)
EP (1) EP1982515A1 (en)
JP (1) JP4709288B2 (en)
KR (1) KR20080089651A (en)
BR (1) BRPI0621231A2 (en)
RU (1) RU2417545C2 (en)
TW (1) TW200731779A (en)
WO (1) WO2007082591A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2494428C2 (en) * 2011-12-07 2013-09-27 Общество с ограниченной ответственностью "Центр проектирования и управления качеством" (ООО "ТексПро") Projection device for prompt obtaining images of surface of textile materials
RU2541353C2 (en) * 2013-06-19 2015-02-10 Общество с ограниченной ответственностью "Аби Девелопмент" Automatic capture of document with given proportions
RU2628165C2 (en) * 2014-08-15 2017-08-15 Сяоми Инк. Method and device for switching chambers
RU2643352C2 (en) * 2012-04-25 2018-02-01 Сони Корпорейшн Display control device and display control method
RU2695104C2 (en) * 2015-11-27 2019-07-19 Сяоми Инк. Method and camera angle adjustment device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7847831B2 (en) * 2006-08-30 2010-12-07 Panasonic Corporation Image signal processing apparatus, image coding apparatus and image decoding apparatus, methods thereof, processors thereof, and, imaging processor for TV conference system
JP4927669B2 (en) * 2007-09-05 2012-05-09 浜松ホトニクス株式会社 Solid-state imaging device
JP5684033B2 (en) 2011-04-11 2015-03-11 オリンパス株式会社 IMAGING DEVICE AND ENDOSCOPE DEVICE OPERATION METHOD
US8928746B1 (en) * 2013-10-18 2015-01-06 Stevrin & Partners Endoscope having disposable illumination and camera module
CN110413805B (en) 2018-04-25 2022-02-01 杭州海康威视数字技术股份有限公司 Image storage method and device, electronic equipment and storage medium
FR3143250A1 (en) * 2022-12-08 2024-06-14 Sagemcom Broadband Sas Decoder box with integrated optical sensor and system comprising such a decoder box

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02103023A (en) 1988-10-12 1990-04-16 Hitachi Ltd Video camera
KR0185928B1 (en) 1995-10-07 1999-05-01 김광호 Automatic direction control apparatus for lcd monitor
JP2809215B2 (en) 1996-09-26 1998-10-08 日本電気株式会社 Solid-state imaging camera
JPH10145667A (en) 1996-11-05 1998-05-29 Canon Inc Image pickup device
US6806903B1 (en) * 1997-01-27 2004-10-19 Minolta Co., Ltd. Image capturing apparatus having a γ-characteristic corrector and/or image geometric distortion correction
US6943839B1 (en) * 1997-05-16 2005-09-13 Canon Kabushiki Kaisha Photographic method at time of self-photography, and image sensing apparatus thereof
JP2000138856A (en) * 1998-10-29 2000-05-16 Seiko Epson Corp Image input device, presentation system and information storage medium
JP2000138846A (en) 1998-11-02 2000-05-16 Nikon Corp Electronic camera
US6191827B1 (en) * 1998-12-01 2001-02-20 Oplus Technologies Ltd. Electronic keystone correction for electronic devices with a visual display
JP2000341501A (en) * 1999-03-23 2000-12-08 Minolta Co Ltd Device and method for processing image and recording medium with image processing program stored therein
EP1158786A3 (en) 2000-05-24 2005-03-09 Sony Corporation Transmission of the region of interest of an image
JP3753617B2 (en) 2001-02-16 2006-03-08 コニカミノルタフォトイメージング株式会社 Digital photographing apparatus, image processing apparatus, and recording medium
CN1552155A (en) 2001-09-07 2004-12-01 �ʼҷ����ֵ��ӹɷ����޹�˾ Image device having camera and image perspective correction and possibly rotation and staggering correction
GB2400261B (en) 2001-12-28 2005-06-08 Nec Corp Portable electronic device
KR100663430B1 (en) * 2002-04-22 2007-01-02 삼성전자주식회사 Device and method for displaying zoom screen in wireless telephone having camera
JP2004187111A (en) * 2002-12-05 2004-07-02 Nec Viewtechnology Ltd Document presentation device
JP2005110202A (en) 2003-09-08 2005-04-21 Auto Network Gijutsu Kenkyusho:Kk Camera apparatus and apparatus for monitoring vehicle periphery
JP4174404B2 (en) * 2003-10-01 2008-10-29 キヤノン株式会社 Imaging apparatus, image display method, program, and storage medium
JP3743828B2 (en) 2003-10-14 2006-02-08 カシオ計算機株式会社 Electronic camera
JP4238749B2 (en) 2004-03-10 2009-03-18 カシオ計算機株式会社 Image processing apparatus, image projection apparatus, image processing method, and program
JP2005267457A (en) * 2004-03-19 2005-09-29 Casio Comput Co Ltd Image processing device, imaging apparatus, image processing method and program
JP2005347416A (en) 2004-06-01 2005-12-15 Sharp Corp Solid-state imaging apparatus, semiconductor wafer, and camera module
EP1608135A1 (en) 2004-06-15 2005-12-21 Sony Ericsson Mobile Communications AB Portable communication device with two cameras

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2494428C2 (en) * 2011-12-07 2013-09-27 Общество с ограниченной ответственностью "Центр проектирования и управления качеством" (ООО "ТексПро") Projection device for prompt obtaining images of surface of textile materials
RU2643352C2 (en) * 2012-04-25 2018-02-01 Сони Корпорейшн Display control device and display control method
RU2541353C2 (en) * 2013-06-19 2015-02-10 Общество с ограниченной ответственностью "Аби Девелопмент" Automatic capture of document with given proportions
RU2628165C2 (en) * 2014-08-15 2017-08-15 Сяоми Инк. Method and device for switching chambers
RU2695104C2 (en) * 2015-11-27 2019-07-19 Сяоми Инк. Method and camera angle adjustment device
US10375296B2 (en) 2015-11-27 2019-08-06 Xiaomi Inc. Methods apparatuses, and storage mediums for adjusting camera shooting angle

Also Published As

Publication number Publication date
TW200731779A (en) 2007-08-16
EP1982515A1 (en) 2008-10-22
KR20080089651A (en) 2008-10-07
BRPI0621231A2 (en) 2012-10-09
US7918614B2 (en) 2011-04-05
JP4709288B2 (en) 2011-06-22
WO2007082591A1 (en) 2007-07-26
US20070172230A1 (en) 2007-07-26
RU2008134116A (en) 2010-02-27
JP2009524305A (en) 2009-06-25

Similar Documents

Publication Publication Date Title
RU2417545C2 (en) Photographic camera for electronic device
US7822338B2 (en) Camera for electronic device
US8217989B2 (en) Method for photographing panoramic picture
KR100805293B1 (en) Mobile device and photographing method thereof
US20090128644A1 (en) System and method for generating a photograph
EP2881775A1 (en) Imaging device
JP6031587B2 (en) Imaging apparatus, signal processing method, and signal processing program
US20070052833A1 (en) Variable magnification optical system and image-taking apparatus
WO2008016474A2 (en) Producing digital image with different resolution portions
JP2008193196A (en) Imaging device and specified voice output method
US9485408B2 (en) Imaging apparatus and exposure determining method
JP2016012786A (en) Imaging apparatus
CN113504692B (en) Camera shooting and projection integrated module and control method thereof
JP4210189B2 (en) Imaging device
US9013542B2 (en) Image capture device and image synthesis method thereof
CN107071277B (en) Optical drawing shooting device and method and mobile terminal
JP2014176056A (en) Image pickup device
KR100862521B1 (en) Camera module
JP2005109623A (en) Multiple-lens imaging apparatus and mobile communication terminal
CN101366269A (en) Camera for electronic device
WO2018082604A1 (en) Parallax and distance parameter calculation methods, dual camera module and electronic device
JP2015095857A (en) Imaging apparatus
KR100810344B1 (en) Apparatus for digital photographing and method for smear appearance correction and detecting using the same
JP2005109622A (en) Multiple-lens imaging apparatus and mobile communication terminal
MX2008009113A (en) Camera for electronic device

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20130812