RU2649773C2 - Управление камерой посредством функции распознавания лица - Google Patents

Управление камерой посредством функции распознавания лица Download PDF

Info

Publication number
RU2649773C2
RU2649773C2 RU2016117174A RU2016117174A RU2649773C2 RU 2649773 C2 RU2649773 C2 RU 2649773C2 RU 2016117174 A RU2016117174 A RU 2016117174A RU 2016117174 A RU2016117174 A RU 2016117174A RU 2649773 C2 RU2649773 C2 RU 2649773C2
Authority
RU
Russia
Prior art keywords
camera
image
camera control
electronic device
user
Prior art date
Application number
RU2016117174A
Other languages
English (en)
Other versions
RU2016117174A (ru
Inventor
Лян ЧЕН
Лили МА
Хеминь ХАНЬ
Дэвид ПОЙСНЕР
Дуэйн КВИТ
Original Assignee
Интел Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Интел Корпорейшн filed Critical Интел Корпорейшн
Publication of RU2016117174A publication Critical patent/RU2016117174A/ru
Application granted granted Critical
Publication of RU2649773C2 publication Critical patent/RU2649773C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

Изобретение относится к способам управления электронным устройствам. Технический результат заключается в обеспечении возможности управлять камерой одной рукой. Устройство содержит первую камеру и вторую камеру. Первая камера принимает первый поток изображения, и вторая камера принимает второй поток изображения, который включает в себя изображение лица пользователя электронного устройства. Устройство включает в себя модуль управления камерой, который идентифицирует жест, основанный на изменении во втором потоке изображения, идентифицирует признак управления камерой первой камеры на основании жеста и активирует признак управления камерой для первой камеры. 3 н. и 13 з.п. ф-лы, 9 ил.

Description

Область техники, к которой относится изобретение
Изобретение относится, в целом, к способам управления электронным устройством. Более конкретно, изобретение относится, в общем, к способам управления камерой посредством функции распознавания лица.
Уровень техники
Многие электронные устройства, такие как смартфоны и планшетные компьютеры, имеют встроенные камеры, которые позволяют пользователям фиксировать цифровые фотографии. Для захвата изображения пользователь может войти в режим камеры, который позволяет пользователю использовать устройство как камеру. В режиме камеры дисплей устройства используется в качестве своего рода видоискатель, который показывает изображение, которое будет захвачено. Если дисплей представляет собой сенсорный экран, то дисплей может также служить устройством ввода. Например, пользователь может нажать виртуальную кнопку на дисплее для захвата изображения. Еще до захвата изображения пользователь может иметь возможность воздействовать на области экрана, чтобы изменить фокусировку, отключить вспышку или изменить масштаб, например. Если пользователь устройства удерживает корпус устройства в одной руке и другой рукой нажимает кнопки на дисплее, то нельзя обеспечить неподвижность камеры, что в результате приводит к дополнительному перемещению корпуса и возникновению дополнительного размытия в захваченном изображении. Кроме того, если пользователь устройства имеет возможность использовать только одну руку, то он не может сделать необходимые настройки камеры или захватить изображение.
Краткое описание чертежей
Фиг. 1 представляет собой блок-схему электронного устройства, которое использует функцию распознавания лиц для управления камерой.
Фиг. 2 представляет собой блок-схему алгоритма способа управления камерой, используя функцию распознавания лица.
Фиг. 3А, 3В и 3С иллюстрируют один пример способа управления камерой, используя функцию распознавания лица.
Фиг. 4 показывает взаимосвязь между изображением, полученным фронтальной камерой 114, и коэффициентом масштабирования тыльной камеры 116.
Фиг. 5А, 5В и 5С иллюстрируют другой пример управления камерой, используя функцию распознавания лица.
Используется одинаковая нумерация компонентов и признаков, описанных в настоящем документе и на чертежах. Числа, начинающиеся с 100, относятся к признакам, первоначально указанным на фиг. 1; числа, начинающиеся с 200, относятся к признакам, первоначально указанным на фиг. 2; и так далее.
Описание вариантов осуществления
Изобретение относится к способам использования функции распознавания лиц для управления камерой в устройстве с фронтальной камерой и тыльной камерой. Фронтальная камера обращена в том же направлении, что и дисплей, таким образом, она может быть использована, например, для захвата изображения лица пользователя для проведения видеоконференций. Тыльная камера обращена в противоположенное от фронтальной камеры и дисплея направление. Тыльная камера представляет собой камеру, которая будет чаще всего использоваться для съемки цифровых фотографий или цифрового видео, что будет храниться в устройстве пользователя.
Фронтальная камера может быть использована для распознавания лица пользователя камеры. Изменения в изображении лица пользователя могут быть использованы для управления тыльной камерой, которая может быть направлена на сцену, которую пользователь пытается сфотографировать. Например, пользователь может перемещать камеру от или к лицу. Фронтальная камера может обнаружить изменение видимого размера лица пользователя и использовать эту информацию для управления некоторыми признаками тыльной камеры, например, изменяя коэффициент масштабирования. Используемый в данном описании термин "жест" относится к любому действию пользователя, которое может вызвать изменение потока изображения фронтальной камеры. Жесты, которые могут быть обнаружены и использованы для управления тыльной камерой, включают в себя, но не ограничиваются ими, движения головы, движения глаз, моргание, подмигивание, пожимание плечами, показ языка, улыбка, хмурый вид, движения камеры, которые вызывают изменения в тыльном изображении, такие как движение от или в сторону лица пользователя или наклон камеры, который вызывает изменение размера или положения изображения, снятого тыльной камерой. Любой признак управления тыльной камеры может работать в паре с любым жестом. Признаки управления включают в себя, но не ограничиваются ими, масштабирование, глубину фокуса, расположение фокуса, скорость затвора, захват изображения, смена режима и переключение различных признаков, таких как вспышка, переключение между режимами фотографирования и видеорежимом, обеспечение пакетного режима и т.п.
С помощью настоящего способа фронтальная камера может быть использована для приема потока изображений лица пользователя в то же самое время, когда используется тыльная камера для захвата изображения (например, пейзаж или группа людей). Поток изображений, принятых с помощью фронтальной камеры, может включать в себя один или несколько кадров данных изображения. Устройство использует поток изображений с фронтальной камеры для извлечения информации о жестах пользователя, таких как выражения лица, движений головы, движения камеры и тому подобное. На основе различных жестов устройство инициирует действия, которые в противном случае пришлось бы сделать с помощью пальцев на сенсорном экране или нажатием кнопок на стороне компьютерного устройства.
Описанные здесь способы позволяют пользователю держать обе руки на корпусе устройства, контролируя камеру устройства, что может повысить стабильность и уменьшить размытость изображения. Способы, описанные в данном документе, могут также предоставить пользователю возможность полностью управлять камерой одной рукой, что может быть полезно, когда пользователь имеет только одну свободную руку как для ношения устройства, так и для управления признаками камеры. Когда пользователь использует одну руку для переноски и управления камерой, то рука также может быть использована для управления признаками камеры.
На фиг. 1 представлена блок-схема электронного устройства, которое использует функцию распознавания лица для управления камерой. Электронное устройство 100 может быть любым подходящим электронным устройством, например мобильный телефон, смартфон, планшетный компьютер, ноутбук или цифровой фотоаппарат, среди других. Устройство 100 может включать в себя процессор 102, который выполнен с возможностью выполнять сохраненные инструкции. Процессор 102 может быть одноядерным процессором, многоядерным процессором, вычислительным кластером или иметь любое количество других конфигураций. Кроме того, устройство 100 может включать в себя более чем один процессор 102. Процессор 102 может быть соединен с другими компонентами устройства 100 с помощью шины 104.
Устройство 100 может также включать в себя память 106. Память 106 может включать в себя энергонезависимую память, энергозависимую память или любую их комбинацию. Память 106 может использоваться для хранения пользовательских данных, таких как данные изображения и видео, а также инструкций, выполняемых процессором, таких как операционная система, приложения и другой программный код. Примеры энергонезависимой памяти включают в себя, но не ограничиваются ими, электрически стираемое программируемое постоянное запоминающее устройство (EEPROM), постоянное запоминающее устройство (ROM), флэш-память и другие типы твердотельной памяти, например мемристор. Примеры энергозависимой памяти включают в себя, но не ограничиваются ими, статическое оперативное запоминающее устройство (SRAM) и динамическая память с произвольным доступом (DRAM).
В некоторых вариантах осуществления изобретения устройство 100 включает в себя графический процессор (GPU) 108 в дополнение к процессору 102. GPU 108 может быть выполнен с возможностью выполнять любое количество графических операций в устройстве 100. Например, графический процессор 108 может быть выполнен с возможностью визуализировать или манипулировать графические изображения, графические кадры, видео или тому подобное, которые будут отображаться устройством 100 пользователю. В некоторых вариантах осуществления графический процессор 108 включает в себя ряд графических блоков (не показаны), в котором каждый графический блок выполнен с возможностью выполнять конкретные графические задачи или выполнять конкретные типы рабочих нагрузок. В некоторых вариантах осуществления изобретения устройство 100 не включает в себя графический процессор 108, и графические операции выполняются процессором 102.
Процессор 102 может быть соединен через шину 104 с различными устройствами 110 ввода, которые могут включать в себя, например, кнопки, сенсорный экран и любые другие подходящие органы управления, среди прочих. Устройства 110 ввода могут быть использованы для управления устройством 100. Например, многие из признаков управления камерой могут быть доступны через устройства 110 ввода. Процессор 102 также может быть соединен через шину 104 с дисплеем 112. Дисплей 112 может включать в себя экран дисплея, который является встроенным компонентом устройства 100. Дисплей 112 может быть интегрирован с сенсорным экраном устройства ввода.
Устройство 100 также включает в себя две или более камер, включающие в себя фронтальную камеру 114 и тыльную камеру 116. Фронтальная камера 114 является камерой, которая направлена в сторону пользователя, когда пользователь использует устройство 100 обычным способом, другими словами, смотрит на дисплей 112 и обращен лицом к устройству 110 ввода. Тыльная камера 116 является камерой, которая обращена наружу от тыльной части устройства 100, другими словами, в сторону, противоположную от дисплея 112 и устройства 110 ввода. Тыльная камера 116 может быть камерой с высоким разрешением и, как правило, представляет собой камеру, которая будет использоваться для съемки и записи видео. Каждая из камер 114 и 116 может включать в себя любой подходящий тип формирователя изображения, который может захватить изображение для хранения на машинно-считываемом носителе информации. Например, камеры могут включать в себя прибор с зарядовой связью (CCD) формирователя изображения, комплементарные структуры металл-оксид-полупроводник (CMOS) формирователя изображения, систему на кристалле (SoC) формирователя изображения, формирователя изображения с фоточувствительными тонкопленочными транзисторами или любую их комбинацию. В некоторых примерах тыльная камера включает в себя более одного формирователя изображения и соответствующие линзы или набор линз. Например, тыльная камера может быть 3D-камерой, используемой для захвата трехмерных изображений.
Одна или более камер 114 и 116 могут включать в себя контроллер 118 масштабирования, который регулирует коэффициент масштабирования камеры. В некоторых примерах коэффициент масштабирования может регулироваться путем перемещения объектива камеры, и контроллер 118 масштабирования может включать в себя или может быть соединен с двигателем для перемещения одного из объективов. В некоторых примерах тыльная камера 116 включает в себя контроллер 118 масштабирования, а фронтальная камера 114 не имеет. Одна или несколько камер 114 и 116 могут также включать в себя контроллер 120 экспозиции, который регулирует параметр экспозиции или чувствительности формирователя изображения камеры в зависимости от интенсивности потока падающего света. Например, если камера включает в себя механический затвор, то контроллер 120 экспозиции может включать в себя схему для регулирования скорости затвора и диафрагмы затвора. Контроллер 120 экспозиции может контролировать уровень яркости захваченного изображения, глубину резкости захваченного изображения и другие эффекты. Устройство 100 также может включать в себя другие контроллеры, не показанные на фиг. 1.
Устройство 100 также включает в себя модуль 122 управления камерой, который включает в себя логику для управления фронтальной камерой и тыльной камерой. Модуль управления камерой может управлять камерами, посылая команды в контроллер масштабирования и контроллер экспозиции, например. Модуль 122 управления камерой выполнен в виде аппаратных средств или комбинации аппаратных средств и программного обеспечения. Например, как показано на фиг. 1, модуль 122 управления камерой может быть сконфигурирован в виде хранимых программных инструкций, которые будут выполняться процессором 102. Однако в некоторых примерах модуль 122 управления камерой выполнен в виде одной или более компьютерных микросхем (не показаны), которые могут обмениваться данными с процессор 102. Например, модуль 122 управления камерой может быть включен в состав специализированной интегральной схемы (ASIC), массива программируемой пользователем вентильной матрицы (FPGA) или другого специального назначения интегральной схемы или схем.
Модуль 122 управления камерой позволяет пользователю управлять тыльной камерой 116 посредством различных жестов, которые приняты с помощью фронтальной камеры 114. Когда устройство находится в режиме камеры, поток данных изображения может быть принят тыльной камерой 116, обрабатывается и отображается на дисплее 112 для просмотра пользователем. В то же время фронтальная камера 114 может принимать поток данных изображения, который обрабатывается для идентификации жестов, которые указывают на конкретный параметр управления камерой, по желанию пользователя, например увеличение или уменьшение параметра масштабирования, изменение фокусного расстояния, изменение освещенности или инициирование конкретного признака, такого как вспышка. Различные примеры будут дополнительно описаны ниже. Блок-схема, показанная на фиг. 1, не предназначена для указания того, что устройство 100 должно включать в себя все компоненты, показанные на фиг. 1. Дополнительно устройство 100 может включать в себя любое количество дополнительных компонентов, не показанные на фиг. 1, в зависимости от особенностей конкретного варианта реализации. Например, хотя варианты осуществления описываются в данном документе как имеющие фронтальную камеру и тыльную камеру, другие варианты осуществления могут включать в себя различные компоновки камер. Например, камеры могут быть расположены под некоторым другим углом, отличным от размещения под углом 180° друг от друга, например вариант размещения камер, который предусматривает установку камер на одной стороне электронного устройства 100.
На фиг. 2 представлена блок-схема алгоритма способа управления камерой, используя функцию распознавания лица. На протяжении всего описания способа 200 ссылка может иногда быть сделана на фиг. 1 Способ 200 может быть выполнен с помощью любого подходящего электронного устройства, которое включает в себя фронтальную камеру и тыльную камеру. Способ 200 может быть выполнен, например, с помощью модуля 122 управления камерой электронного устройства 100, показанного на фиг. 1.
Способ 200 может начинаться на этапе 202, в котором устройство переходит в режим камеры. Во время режима работы камеры устройство принимает данные изображения и может принимать инструкции управления камерой от пользователя, такие как инструкция для захвата изображения. Также в режиме камеры дисплей устройства может быть использован в качестве видоискателя и отображать поток изображения из тыльной камеры. Если устройство представляет собой планшетный компьютер, например, то режим камеры может быть активирован пользователем путем выбора приложения камеры. Если устройство представляет собой цифровую камеру, режим камеры может быть активирован при включении устройства. Во время "режима камеры" пользователь будет иметь возможность захватывать изображения или видео. Кроме того, термин "захват" относится к процессу получения изображения или видео, так что оно может быть сохранено для последующего извлечения и просмотра. Другими словами, изображение захватывается, когда пользователь делает снимок в отличие от простого просмотра потока изображения на дисплее. Кроме того, видео захватывается, когда пользователь подает команду в камеру использовать режим записи.
На этапе 204 поток изображения принимается тыльной камерой и направляется в дисплей. Как было объяснено выше со ссылкой на фиг. 1, дисплей находится на противоположной стороне устройства относительно фронтальной камеры. Поток изображения направляется в дисплей с тыльной камеры, что позволяет пользователю просматривать изображение, которое будет захвачено, если пользователь делает снимок. Дополнительная графика может отображаться на дисплее в дополнение к изображению с тыльной камеры. Например, индикатор целевого фокуса может быть отображен на экране, чтобы указать часть изображения, которая будет использоваться для выполнения автоматической фокусировки камеры. Дополнительно индикатор целевой экспозиции может быть отображен на экране, чтобы указать часть изображения, которая будет использоваться для автоматической настройки яркости изображения. Индикаторы целевой фокусировки и целевой экспозиции могут быть перемещены в различные части изображения пользователем. Чтобы переместить индикатор целевой фокусировки или целевой экспозиции, пользователь может использовать различные устройства ввода. Например, пользователь может перемещать индикатор целевой фокусировки или целевой экспозиции, коснувшись другой точки на сенсорном экране. Кроме того, пользователь может также переместить индикатор целевой фокусировки или целевой экспозиции с помощью жестов, которые могут быть получены с помощью фронтальной камеры и идентифицированы модулем 122 управления камерой. Множество других информационных индикаторов также могут быть отображены, например индикаторы режима или индикатор включения или выключения вспышки камеры. В некоторых вариантах осуществления признаки управления также могут быть отображены на дисплее, например кнопки, ползунки и тому подобное. Например, дисплей может включать в себя кнопку, которая переключает режим вспышки или позволяет пользователю захватить изображение или начать запись видео.
На этапе 206 поток изображения принимается от фронтальной камеры. Как было описано выше со ссылкой на фиг. 1, фронтальная камера представляет собой камеру, которая обращена к дисплею и, скорее всего, направлена на пользователя. Поток изображения может быть получен с помощью модуля 122 управления камерой, показанного на фиг. 1. Модуль 122 управления камерой может быть выполнен с возможностью идентифицировать лицо человека. Чтобы идентифицировать жесты, может быть установлено изображение исходного состояния лица пользователя. Изображение исходного состояния лица может быть установлено пользователем вручную или автоматически. Например, пользователь может инициировать создание изображения исходного состояния лица пользователя вручную, обеспечивая ввод в камеру, например, путем нажатия физической кнопки или прикосновением к виртуальной кнопке на сенсорном экране. Модуль 122 управления камерой может устанавливать изображение исходного состояния лица пользователя автоматически, гарантируя, что изображение существенно не изменилось в течение определенного периода времени. Например, пороговый уровень движения может быть указан, и если пороговый уровень движения не будет превышен в течение заданного периода времени, то модуль 122 управления камерой может сохранить текущее изображение использования в качестве исходного состояния лица пользователя. В некоторых вариантах осуществления признаки изображения исходного состояния лица пользователя могут идентифицироваться, и их позиции в пределах изображения могут быть сопоставлены. Например, контуры лица пользователя могут быть идентифицированы, и позиции различных черт лица могут быть сопоставлены, например глаз, ушей, нос, рта и т.д. Другие признаки также могут быть сопоставлены, например, плечи, например. В некоторых примерах один кадр изображения может быть использован для идентификации жестов, и в этом случае не может быть установлено изображение исходного состояния лица пользователя. Например, при распознавании лица пользователя модуль 122 управления камерой может быть выполнен с возможностью определить, что один глаз открыт и один глаз закрыт в одном кадре изображения.
На этапе 208 поток изображения от фронтальной камеры обрабатывается, чтобы идентифицировать жесты. Жесты могут быть идентифицированы на основе изменений в потоке изображения, захваченного фронтальной камерой. Например, жесты могут быть идентифицированы путем сравнения текущего изображения с исходным изображением. Движения головы пользователя или плеч, или специфические черты лица пользователя, могут быть распознаны путем сравнения текущего изображения с исходным изображением. Кроме того, движение камеры относительно пользователя будет вызывать изменения размеров изображения, которые также могут быть обнаружены. Например, посредством наклона устройства вверх будет вызваны все признаки изображения для сдвига изображения вниз. Перемещение устройства от пользователя уменьшит масштаб отображения лица пользователя. Некоторые из обнаруженных изменений будут соответствовать конкретным жестам, так что модуль управления камерой выполнен с возможностью распознавать эти жесты, как признаки управления камерой. Жесты, которые модуль 122 управления камерой может распознавать в качестве признаков управления, включают в себя движения головы, мимику лица, движения плеч или изменения размеров изображении, указывающие на перемещение устройства. Примеры движений головы, которые могут соответствовать конкретным жестам, включают в себя наклон головы вверх, вниз или в сторону, поворот головы влево или вправо или качание головы. Примеры мимики лица, которые могут быть идентифицированы как жесты, включают в себя мигание, моргание, открывание или закрывание рта, улыбку, хмурый вид и торчащий язык среди других. Примеры изменения размера изображений включают в себя наклон устройства вверх, вниз, влево или вправо, перемещение устройства ближе или дальше от пользователя и встряхивание устройства среди других. Другие примеры включают в себя жесты пожимания плечами или одним плечом. В некоторых вариантах осуществления жесты могут быть идентифицированы с помощью устройства, отличного от камеры, например датчик движения, датчик расстояния и тому подобное.
На этапе 210 жест, идентифицированный на этапе 208, может быть использован для идентификации признака управления камерой, применимого к фронтальной камере. Любой признак управления камерой может управляться с помощью соответствующего жеста. Возможные признаки управления камерой, которые могут управляться с помощью жестов, включают в себя, но не ограничиваются ими, коэффициент масштабирования, фокусное расстояние, глубина резкости, целевой фокус, яркость изображения, целевая экспозиция, вспышка включена или выключена, переключение различных режимов работы камеры, например уменьшение эффекта красных глаз, пакетный режим, режим камеры/режим видео, режимы, которые определяют скорость затвора и диафрагму, среди нескольких других.
Корреляция между конкретными жестами и их соответствующими признаками управления может быть предварительно запрограммирована в устройстве. Например, устройство может включать в себя таблицу поиска, которая сопоставляет каждый жест с соответствующим признаком управления. Например, если моргание идентифицируется как жест, то жест может быть назначен как конкретный идентификатор и используется для получения соответствующего признака управления из таблицы поиска. В настоящем примере жест подмигивания может соответствовать признаку управления, который является командой для захвата изображения. Устройство также может включать в себя утилиту настройщика, которая позволяет пользователю указать, какие жесты используются в паре с признаками управления. Таким образом, корреляция между жестами и признаками управления камеры варьируются от одного пользователя к другому. Например, камера, которая находится в собственности двух человек, может иметь два отдельных набора корреляций. Для одного пользователя жест подмигивания может вызвать одно управляющее действие камеры, а для другого пользователя подмигивание может вызвать другое управляющее действие камерой. Это может быть полезно в тех случаях, когда один пользователь использует определенный жест для управления устройством.
Различные жесты являются комплементарными, означая, что они имеют противоположный признак, и поэтому пригодны для использования в паре с признаками управления, которые также являются комплементарными. Например, подмигивание левым глазом является комплементарным жестом для подмигивания правым глазом. Точно так же, пожимание левым плечом является комплементарным жестом для пожимания правым плечом. Улыбка является комплементарным жестом для хмурого вида. Такие комплементарные жесты могут работать в паре с комплементарными признаками управления. Например, улыбка может быть сопряжена с признаком управления увеличения масштаба, в то время, как хмурый вид может быть сопряжен с признаком управления уменьшения масштаба. Жест наклона головы влево может быть сопряжен с признаком управления перемещения целевой фокусировки влево, и жест наклона головы вправо может быть сопряжен с признаком управления перемещения целевой фокусировки вправо.
Различные жесты могут рассматриваться как жесты, соответствующие определенному направлению и поэтому пригодны для использования в паре с признаками управления, которые также являются признаками, указывающими направление. Например, вверх, вниз, влево или вправо и наклоны головы могут быть использованы в паре с соответствующими движениями вверх, вниз, влево, вправо перемещения указателя целевой фокусировки или целевой экспозиции.
Некоторые жесты могут рассматриваться как признаки активации, которые являются жестами, которые активируют конкретное действие, например захват изображения (т.е. фотографирование), признак включения и выключения или продвижение по списку доступных признаков. Например, жест торчащего языка, подмигивание или мигание может быть сопряжен с признаком управления съемкой. Если мигание используется как жест, то жест может быть идентифицирован с помощью последовательности быстрого мигания, чтобы отличить этот жест от естественного мигания глаз. Жест быстрого поворота головы влево-вправо может быть использован в паре с признаком управления активацией или деактивацией определенного режима, например переключение между режимами камеры и режимом видеосъемки, удаление снимка или выхода из режима камеры или видео, среди других. Жест открытия или закрытия рта может быть сопряжен с признаком управления работой вспышки.
Любой жест может быть сопряжен с любым признаком управления в зависимости от конструктивных особенностей конкретной реализации. Различные примеры некоторых из возможных вариантов совместного использования были описаны здесь. Однако составить исчерпывающий перечень каждого возможного варианта осуществления является фактически нереализуемой задачей и много дополнительных вариантов осуществления совместного использования жестов и признаков управления могут быть известны специалистам в данной области с учетом преимущества изобретения.
На этапе 212 идентифицированный признак управления активируется для тыльной камеры. Например, если признак управления является командой на увеличение масштаба изображения, то модуль 122 управления камерой может послать команду в контроллер 118 масштабирования для увеличения масштаба. Если признак управления представляет собой команду увеличения яркости изображения, то модуль 112 управления камерой может послать команду контроллеру 110 экспозиции, чтобы увеличить яркость изображения. Если признак управления представляет собой команду изменения целевой экспозиции или целевого фокуса на другую часть отображаемого изображения, то модуль 122 управления камерой может послать команду на изменение местоположения целевой экспозиции или целевой фокусировки. Описанный выше процесс может повторяться до тех пор, пока устройство остается в режиме камеры.
Фиг. 3А, 3В и 3С иллюстрируют один пример управления камерой, используя функцию распознавания лица. Фиг. 3А показывает пользователя, держащего электронное устройство 100, которое в этом примере является планшетным компьютером. Устройство 100 включает в себя фронтальную камеру 114 и тыльную камеру (не показана). Сцена, отображаемая на дисплее 112, поступает с тыльной камеры. Изображения также получены фронтальной камерой 114, но эти изображения не отображаются на устройстве 100. Более того, фиг. 3 показывает пользователя, устанавливающего исходное изображение лица, как было описано выше на этапе 206 на фиг. 2. В этом примере исходное изображение лица пользователя соответствует исходному расстоянию 300.
Фиг. 3В показывает пользователя, перемещающего устройство ближе к себе после установления исходного изображения. Исходное положение устройства 100, когда было установлено исходное изображение лица пользователя, показано пунктирными линиями. Разность между исходным положением устройства 100 и текущим положением устройства 100 показана как измененное расстояние 302. Измененное расстояние 302 может быть обнаружено как жест, который может использоваться для управления тыльной камерой. Например, измененное расстояние 302 может быть использовано для изменения коэффициента масштабирования тыльной камеры. Более того, изменение коэффициента масштабирования может быть пропорционально величине измененного расстояния 302. В некоторых вариантах осуществления перемещение устройства 100 ближе к пользователю вызывает пропорциональное постепенное уменьшение коэффициента масштабирования тыльной камеры (другими словами, уменьшать величину масштабирования).
Фиг. 3С показывает перемещение устройства пользователем в сторону после установления исходного изображения лица пользователя. Исходное положение устройства 100, когда была установлено исходное изображение лица пользователя, показано пунктирными линиями. Разность между исходным положением устройства 100 и текущим положением устройства 100 показана как измененное расстояние 304. Как показано на фиг. 5, дополнительное перемещение устройства 100 вызывает пропорциональное постепенное увеличение коэффициента масштабирования тыльной камеры (другими словами, увеличение). Кроме того, жест перемещения устройства ближе к пользователю и в сторону также может быть использован для управления другими признаками тыльной камеры. Например, жест, описанный на фиг. 3А-3С, может использоваться для ручной регулировки фокусного расстояния, ближе или дальше. Хотя исходное расстояние 300 и измененное расстояние 302 и 304 используются для объяснения изобретения, исходное расстояние и измененное расстояние в некоторых вариантах осуществления может не быть непосредственно вычислено. Скорее всего, видимое изменение размера изображения лица пользователя с точки фронтальной камеры 114 может быть использовано, как замена фактического расстояния. Это описано ниже со ссылкой на фиг. 4.
На фиг. 4 показана взаимосвязь между изображением, принятым фронтальной камерой 114, и коэффициентом масштабирования тыльной камеры 116. Изображение 600 показывает исходное изображение лица пользователя, установленное посредством фронтальной камеры 114. В некоторых вариантах осуществления исходное изображение 600 не отображается пользователю. Исходное изображение 600 может быть обработано для идентификации видимого размера лица, как представлено прямоугольником 602. Изображение 604 представляет собой изображение, принятое с помощью тыльной камеры 114, и отображается пользователю, когда фронтальная камера 116 находится на исходной позиции.
Когда пользователь перемещает устройство 100 ближе к себе, как показано на фиг. 3В, то видимый размер лица пользователя становится больше, как показано на изображении 606. Перемещение устройства 100 ближе к себе может быть обнаружено как жест, соответствующий команде на уменьшение масштаба, что находит свое отражение в изображении 608. Когда пользователь перемещает устройство 100 дальше от себя, как показано на фиг. 3С, то видимый размер лица пользователя становятся меньше, как показано на изображении 610. Перемещение устройства 100 дальше от себя может быть обнаружено как жест, соответствующий команде на изменение масштаба изображения, что отражено на изображении 610.
Фиг. 5А, 5В и 5С иллюстрируют другой пример управления камерой с помощью функции распознавания лица. Фиг. 5А показывает пользователя, удерживающего устройство 100 в положении, соответствующем исходному изображению. Как показано на фиг. 5А, исходное изображение лица пользователя устанавливается в то время, когда пользователь смотрит прямо перед собой и обращен к фронтальной камере. Таким образом, в данном примере исходное изображение лица пользователя будет являться относительно симметричным с позиции фронтальной камеры.
Фиг. 5В показывает пользователя, который слегка повернул голову влево. Модуль 122 управления камерой может идентифицировать это изменение, как направленный жест, соответствующий команде сдвига целевой точки 700 влево. Целевая точка 700 может быть индикатором целевого фокуса либо целевой экспозиции, например. Целевая точка 700 может также быть индикатором целевого выбора. Другими словами, выбор цели может быть выбором точки на экране, которую пользователь хочет выбрать с помощью другого жеста, например морганием или торчащим языком, среди прочих. Таким образом, пользователь может выбрать виртуальную кнопку, показанную на дисплее 112. Другие жесты направления могут быть использованы также для выдачи направленной команды. Например, целевая точка 700 также может быть перемещена влево посредством наклона головы влево, а не поворотом головы.
Фиг. 5С показывает пользователя, который слегка наклонил голову. Модуль 122 управления камерой может идентифицировать это изменение как жест управления по направлению, соответствующий команде на измерение направления, такая как команда на сдвиг целевой точки 700 вверх. В дополнение к конкретным жестам, показанным на фиг. 5В и 5С, жест наклона головы вниз может быть интерпретирован, как команда перемещения целевой точки 700 вниз, и жест поворота головы вправо или наклон головы вправо может быть истолкован, как команда перемещения целевой точки 700 вправо. Кроме того, величина смещения целевой точки от центра может быть пропорциональна степени изменения между исходным изображением лица пользователя и текущим изображением лица пользователя. В некоторых вариантах осуществления команды для перемещения целевой точки 700 соответствуют жестам движения глаз, а не жестам движения головы.
В настоящем описании и формуле изобретения могут быть использованы термины "соединенный" и "подключенный" вместе с их производными. Следует понимать, что эти термины не следует рассматривать как синонимы друг к другу. Скорее всего, в конкретных вариантах осуществления "соединенный" может быть использован для указания того, что два или более элементов находятся в непосредственном физическом или электрическом контакте друг с другом. "Соединенный" может означать, что два или более элементов находятся в непосредственном физическом или электрическом контакте. Однако "соединенный" может также означать, что два или более элементов не находятся в непосредственном контакте друг с другом, но тем не менее все еще взаимодействуют друг с другом.
Некоторые варианты осуществления могут быть реализованы в одной или в комбинации аппаратных средств, встроенного программного обеспечения и программного обеспечения. Некоторые варианты осуществления также могут быть реализованы в виде инструкций, хранящихся на машиночитаемом носителе, которые могут быть считаны и выполнены вычислительной платформой для выполнения операций, описанных в настоящем документе. Машиночитаемый носитель может включать в себя любой механизм для хранения или передачи информации в форме, считываемой машиной, например компьютером. Например, машиночитаемый носитель может включать в себя постоянное запоминающее устройство (ROM); оперативное запоминающее устройство (RAM); магнитные диски; оптические носители информации; устройства флэш-памяти; или электрические, оптические, акустические или другие формы распространяющихся сигналов, например, несущих волн, инфракрасные сигналы, цифровые сигналы и интерфейсы, которые передают и/или принимают сигналы, среди прочих.
Один из вариантов осуществления является вариантом реализации или примером. Ссылка в описании на "вариант осуществления", "один из вариантов осуществления", "некоторые варианты осуществления", "различные варианты осуществления" или "другие варианты осуществления" означают, что конкретный признак, структура или характеристика, описанные в связи с вариантами осуществления, включены в состав по меньшей мере некоторых вариантов осуществления, но не обязательно во все варианты осуществления изобретения. Различные способы использования "варианта осуществления", "один вариант осуществления" или "некоторых вариантов осуществления" не обязательно относятся к одним и тем же вариантам осуществления. Элементы или аспекты варианта осуществления могут быть объединены с элементами или аспектами другого варианта осуществления.
Не все компоненты, признаки, структуры, характеристики и т.д., описанные и проиллюстрированные здесь, обязательно должны быть включены в состав конкретного варианта осуществления или вариантов осуществления. Если спецификация указывает на компонент, признак, структуру или характеристику, которые "возможно могут", "могли бы", "могут" или "могли" быть включены в состав, например, что не обязательно требуется использование конкретного компонента, признака, структуры или характеристики. Если спецификация или формула изобретения ссылается на "а" или "an" элемент, то это не означает, что существует только один из элементов. Если спецификация или претензии ссылается на "дополнительный" элемент, то это не исключают наличия более одного дополнительного элемента.
Следует отметить, что, хотя некоторые варианты осуществления были описаны в отношении конкретных вариантов реализаций, возможны другие варианты реализации в соответствии с некоторыми вариантами осуществления. Кроме того, компоновка и/или порядок элементов схемы или другие признаки, показанные на чертежах и/или описанные в данном документе, не должны быть расположены проиллюстрированным и описанным образом. Многие другие варианты осуществления возможны в соответствии с некоторыми вариантами осуществления.
В каждой системе, показанной на чертеже, элементы в некоторых случаях могут каждый иметь тот же ссылочный номер или другой идентификационный номер, чтобы предположить, что представленные элементы могут быть разными и/или подобными. Тем не менее, элемент может быть достаточно гибким, чтобы иметь различные варианты реализаций и работать с некоторыми или со всеми системами, показанными или описанными в данном документе. Различные элементы, показанные на чертежах, могут быть одинаковыми или различными. Какой из них упоминается в качестве первого элемента, и который называется вторым элементом, являются произвольными.
Следует понимать, что упомянутые выше примеры могут быть использованы в любом месте в одном или нескольких вариантах осуществления. Например, все возможные признаки вычислительного устройства, описанного выше, могут быть реализованы в отношении любого из способов, описанных в данном документе, или машиночитаемого носителя информации. Более того, хотя блок-схемы алгоритма операций и/или диаграммы состояний могут быть использованы здесь для описания вариантов осуществления, настоящие способы не ограничиваются этими блок-схемами алгоритма или соответствующим описанием. Например, последовательность выполнения операций способа может не проходить через каждый изображенный этап обработки или состояние или в том же порядке, как показано и описано в данном документе.
Изобретение не ограничено конкретными деталями, перечисленными в настоящем документе. Фактически, специалисты в данной области техники могут воспользоваться выгодами изобретения и могут получить другие варианты осуществления из приведенного выше описания и чертежей в пределах объема изобретения. Соответственно прилагаемая формула изобретения включает в себя любые изменения, которая определяет объем изобретения.
Пример 1
Ниже приведено описание примера электронного устройства в соответствии с изобретением. Электронное устройство включает в себя первую камеру, вторую камеру и модуль управления камерой. Первая камера принимает первый поток изображения. Вторая камера принимает второй поток изображения, который включает в себя изображение лица пользователя электронного устройства. Модуль управления камерой выполнен с возможностью идентифицировать жест, основанный на изменении во втором потоке изображений, идентифицировать признак управления первой камеры на основании жеста; и активировать признак управления камерой для первой камеры.
В некоторых примерах модуль управления камерой выполнен с возможностью устанавливать исходное изображение из второго потока изображения и сравнивать исходное изображение с текущим изображением второго потока изображения для идентификации жеста. В некоторых примерах этот жест представляет собой перемещение электронного устройства от лица пользователя, и признак управления камерой представляет собой команду на увеличение масштаба. В некоторых примерах этот жест является подмигиванием, и признак управления камерой является активацией захвата изображения. Этот жест может быть комплиментом для второго жеста и признак управления камерой может быть комплиментом второго признака управления камерой, управляемой вторым жестом.
Этот жест также может быть направленным жестом, и признак управления камерой может быть направленным признаком управления камерой. Для примера, этот жест может быть наклоном головы или поворотом головы, и признак управления камерой может быть командой на перемещение целевой точки фокуса или командой на перемещение целевой точки экспозиции.
Пример 2
Ниже приведен пример электронного устройства в соответствии с изобретением. Электронное устройство включает в себя логику для приема первого потока изображений, который включает в себя изображение лица пользователя электронного устройства. Электронное устройство включает в себя логику для идентификации жеста, основанного на изменении в первом потоке изображения. Электронное устройство также включает в себя логику для идентификации признака управления второй камеры на основании жеста и активации признака управления камерой для второй камеры.
В некоторых примерах осуществления электронное устройство включает в себя логику для установления исходного изображения из первого потока изображения и имеет возможность сравнивать исходное изображение с текущим изображением первого потока изображения для идентификации жеста. В некоторых примерах этот жест является перемещением электронного устройства от лица пользователя, и признак управления камерой является командой на увеличение масштаба. В некоторых примерах этот жест является подмигиванием, и признак управления камерой является активацией захвата изображения. Этот жест может быть комплиментом второго жеста, и признак управления камерой может быть комплиментом второго признака управления камерой, управляемой вторым жестом.
Этот жест также может быть направленным жестом, и признак управления камерой может быть признаком направленного управления камерой. Для примера, этот жест может быть наклоном головы или поворотом головы, и признак управления камерой может быть командой на перемещение целевой точки фокуса или командой на перемещение целевой точки экспозиции.
Пример 3
Ниже приведен пример материального, постоянного, машиночитаемого носителя информации в соответствии с изобретения. Машиночитаемый носитель информации включает в себя инструкции для управления процессором для приема первого потока изображения из первой камеры. Инструкции также управляют процессором для приема второго потока изображения из второй камеры, в котором второй поток изображения включает в себя изображение лица пользователя электронного устройства. Инструкции также управляют работой процессора для идентификации жеста, основанного на изменении во втором потоке изображений, идентификации признака управления камерой первой камеры на основании жеста; и активировании признака управления камерой для первой камеры.
В некоторых примерах инструкции управляют работой процессора для установления исходного изображения из второго потока изображения, и сравнивают исходное изображение с текущим изображением второго потока изображения для идентификации жеста. В некоторых примерах этот жест является перемещением второй камеры от лица пользователя, и признак управления камерой является командой на увеличение масштаба. В некоторых примерах этот жест является подмигиванием, и признак управления камерой является активацией захвата изображения. Этот жест может быть комплиментом второго жеста, и признак управления камерой может быть комплиментом второго признака управления камерой, управляемой вторым жестом.
Этот жест также может быть направленным жестом, и признак управления камерой может быть направленным признаком управления камерой. Для примера, этот жест может быть наклоном головы или поворотом головы, и признак управления камерой может быть командой на перемещение целевой точки фокуса или командой на перемещение целевой точки экспозиции.

Claims (40)

1. Электронное устройство для управления камерой посредством функции распознавания лица, содержащее:
тыльную камеру для приема потока тыльных изображений;
фронтальную камеру для приема потока фронтальных изображений, который включает в себя лицо пользователя электронного устройства;
модуль управления камерой, выполненный с возможностью:
установления исходного изображения из потока фронтальных изображений, если пороговый уровень перемещения не превышен в течение заданного периода времени;
идентификации перемещения электронного устройства от лица пользователя на основе изменения размера лица в потоке фронтальных изображений по сравнению с исходным изображением лица;
идентификации первого признака управления камерой для тыльной камеры на основе перемещения, при этом первый признак управления камерой является командой на изменение масштаба изображения; и
активации первого признака управления камерой для тыльной камеры.
2. Электронное устройство по п. 1, в котором модуль управления камерой выполнен с возможностью идентификации подмигивания на основе изменения в потоке фронтальных изображений по сравнению с исходным изображением и в ответ на подмигивание активации захвата изображения.
3. Электронное устройство по п. 1, в котором модуль управления камерой выполнен с возможностью:
идентификации перемещения электронного устройства по направлению к лицу на основе изменения в потоке фронтальных изображений по сравнению с исходным изображением; и
идентификации второго признака управления камерой для тыльной камеры на основе перемещения, при этом второй признак управления камерой является командой на изменение масштаба изображения в противоположном направлении по сравнению с первым признаком управления камерой.
4. Электронное устройство по п. 1, в котором модуль управления камерой выполнен с возможностью идентификации наклона головы и в ответ на наклон активации направленного признака управления камерой.
5. Электронное устройство по п. 1, в котором модуль управления камерой выполнен с возможностью идентификации поворота головы и в ответ на поворот активации направленного признака управления камерой.
6. Электронное устройство для управления камерой посредством функции распознавания лица, содержащее:
логику для приема первого потока изображений посредством первой камеры, в котором первый поток изображений включает в себя изображение лица пользователя электронного устройства;
логику для установления исходного изображения лица из первого потока изображения, если пороговый уровень перемещения не превышен в течение заданного периода времени;
логику для идентификации перемещения электронного устройства от лица пользователя на основе изменения размера лица в первом потоке изображений по сравнению с исходным изображением лица;
логику для идентификации первого признака управления камерой для второй камеры на основании перемещения, при этом первый признак управления камерой является командой на изменение масштаба изображения; и
логику для активирования признака управления камерой для второй камеры.
7. Электронное устройство по п. 6, в котором модуль управления камерой выполнен с возможностью идентификации подмигивания на основе изменения в потоке фронтальных изображений по сравнению с исходным изображением и в ответ на подмигивание активации захвата изображения.
8. Электронное устройство по п. 6, содержащее логику для:
идентификации перемещения электронного устройства по направлению к лицу на основе изменения в первом потоке изображений по сравнению с исходным изображением; и
идентификации второго признака управления камерой для второй камеры на основе перемещения, при этом второй признак управления камерой является командой на изменение масштаба изображения в противоположном направлении по сравнению с первым признаком управления камерой.
9. Электронное устройство по п. 6, содержащее логику для идентификации направленного жеста и для перемещения целевой точки фокусировки в ответ на направленный жест.
10. Электронное устройство по п. 6, содержащее логику для идентификации направленного жеста и для перемещения целевой точки экспозиции в ответ на направленный жест.
11. Материальный, постоянный, считываемый компьютером носитель информации, содержащий инструкции для управления работой процессора для:
приема потока тыльных изображений из тыльной камеры;
приема потока фронтальных изображений из фронтальной камеры, в которой поток фронтальных изображений включает в себя изображение лица пользователя электронного устройства;
установления исходного изображения из потока фронтальных изображений, если пороговый уровень перемещения не превышен в течение заданного периода времени;
идентификации перемещения электронного устройства от лица пользователя на основе изменения размера лица в потоке фронтальных изображений по сравнению с исходным изображением лица;
идентификации второго признака управления камерой для тыльной камеры на основе перемещения, при этом первый признак управления камерой является командой на изменение масштаба изображения; и
активации признака управления камерой для тыльной камеры.
12. Считываемый компьютером носитель информации по п. 11, в котором инструкции управляют процессором для идентификации подмигивания на основе изменения в потоке фронтальных изображений по сравнению с исходным изображением и в ответ на подмигивание активации захвата изображения.
13. Считываемый компьютером носитель информации по п. 11, в котором инструкции управляют процессором для:
идентификации перемещения электронного устройства по направлению к лицу на основе изменения в потоке фронтальных изображений по сравнению с исходным изображением; и
идентификации второго признака управления камерой для тыльной камеры на основе перемещения, при этом второй признак управления камерой является командой на изменение масштаба изображения в противоположном направлении по сравнению с первым признаком управления камерой.
14. Считываемый компьютером носитель информации по п. 11, в котором инструкции управляют процессором для идентификации наклона головы и в ответ на наклон активации направленного признака управления камерой.
15. Считываемый компьютером носитель информации по п. 11, в котором инструкции управляют процессором для идентификации поворота головы и активации направленного признака управления камерой в ответ на поворот.
16. Считываемый компьютером носитель информации по п. 11, в котором инструкции управляют процессором для идентификации направленного жеста и для перемещения целевой точки фокусировки в ответ на направленный жест.
RU2016117174A 2013-11-29 2013-11-29 Управление камерой посредством функции распознавания лица RU2649773C2 (ru)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/088145 WO2015077978A1 (en) 2013-11-29 2013-11-29 Controlling a camera with face detection

Publications (2)

Publication Number Publication Date
RU2016117174A RU2016117174A (ru) 2017-11-02
RU2649773C2 true RU2649773C2 (ru) 2018-04-04

Family

ID=53198223

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016117174A RU2649773C2 (ru) 2013-11-29 2013-11-29 Управление камерой посредством функции распознавания лица

Country Status (8)

Country Link
US (1) US9628699B2 (ru)
EP (1) EP3074817A4 (ru)
JP (1) JP2017505553A (ru)
KR (1) KR20160065920A (ru)
CN (1) CN105705993B (ru)
RU (1) RU2649773C2 (ru)
TW (1) TWI586167B (ru)
WO (1) WO2015077978A1 (ru)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150310767A1 (en) * 2014-04-24 2015-10-29 Omnivision Technologies, Inc. Wireless Typoscope
JP6234333B2 (ja) * 2014-06-25 2017-11-22 オリンパス株式会社 撮像システム及び撮像方法
KR20170009087A (ko) * 2015-07-15 2017-01-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
CN105450930B (zh) * 2015-11-09 2018-11-13 广州多益网络股份有限公司 一种自拍方法及装置
CN105894533A (zh) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 基于智能设备实现体感控制的方法、系统以及智能设备
KR20170084558A (ko) * 2016-01-12 2017-07-20 삼성전자주식회사 전자 장치 및 그의 동작 방법
US9832368B1 (en) * 2016-05-31 2017-11-28 Motorola Mobility Llc Managing unintended camera clicks
US20180063444A1 (en) * 2016-08-29 2018-03-01 Razmik Karabed View friendly monitor systems
US10654422B2 (en) 2016-08-29 2020-05-19 Razmik Karabed View friendly monitor systems
US9729820B1 (en) 2016-09-02 2017-08-08 Russell Holmes Systems and methods for providing real-time composite video from multiple source devices
US10089793B2 (en) 2016-09-02 2018-10-02 Russell Holmes Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
CN106572304A (zh) * 2016-11-02 2017-04-19 西安电子科技大学 基于眨眼检测的智能手机拍照系统和方法
US10740446B2 (en) 2017-08-24 2020-08-11 International Business Machines Corporation Methods and systems for remote sensing device control based on facial information
US11556233B2 (en) * 2018-02-13 2023-01-17 Lenovo (Singapore) Pte. Ltd. Content size adjustment
US10778900B2 (en) * 2018-03-06 2020-09-15 Eikon Technologies LLC Method and system for dynamically adjusting camera shots
US11245840B2 (en) 2018-03-06 2022-02-08 Eikon Technologies LLC Method and system for dynamically adjusting camera shots
CN108921972A (zh) * 2018-05-25 2018-11-30 惠州市德赛西威汽车电子股份有限公司 一种具有眨眼拍照功能和疲劳驾驶提醒功能的行车记录仪
KR20190141866A (ko) * 2018-06-15 2019-12-26 삼성전자주식회사 사용자의 사진 촬영 의도를 식별하기 위한 전자 장치 및 방법
CN110377201A (zh) * 2019-06-05 2019-10-25 平安科技(深圳)有限公司 终端设备控制方法、装置、计算机装置及可读存储介质
US11388354B2 (en) 2019-12-06 2022-07-12 Razmik Karabed Backup-camera-system-based, on-demand video player
WO2021179969A1 (en) * 2020-03-07 2021-09-16 Guangdong Oppo Mobile Telecommunications Corp., Ltd. System and method for automatically adjusting focus of a camera
US11310433B1 (en) 2020-11-24 2022-04-19 International Business Machines Corporation User-configurable, gestural zoom facility for an imaging device
US11800214B2 (en) * 2022-01-04 2023-10-24 Hamilton Sundstrand Corporation Real time camera-based visibility improvement in atmospheric suit
US20230259201A1 (en) * 2022-02-16 2023-08-17 Htc Corporation Method for zooming visual content, host, and computer readable medium
US11889178B2 (en) * 2022-02-28 2024-01-30 Motorola Mobility Llc Electronic device with automatic eye gaze tracking and camera adjustment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100299642A1 (en) * 2009-05-22 2010-11-25 Thomas Merrell Electronic Device with Sensing Assembly and Method for Detecting Basic Gestures
US20110018795A1 (en) * 2009-07-27 2011-01-27 Samsung Electronics Co., Ltd. Method and apparatus for controlling electronic device using user interaction
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
US20120281129A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Camera control

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251235A (ja) * 2001-02-23 2002-09-06 Fujitsu Ltd 利用者インタフェースシステム
JP2004187125A (ja) * 2002-12-05 2004-07-02 Sumitomo Osaka Cement Co Ltd 監視装置および監視方法
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
GB2442504B (en) 2006-11-17 2008-10-15 Internet Web Technology Ltd Face recognition system, security system comprising same and method for operating same
US7995794B2 (en) * 2007-03-02 2011-08-09 Sony Ericsson Mobile Communications Ab Remote control of an image capturing unit in a portable electronic device
KR101396326B1 (ko) 2007-10-12 2014-05-16 삼성전자주식회사 얼굴 검출을 위한 디지털 영상 처리 장치의 제어 방법 및이 방법을 채용한 디지털 영상 처리 장치
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
JP4781440B2 (ja) * 2009-02-05 2011-09-28 ソニー エリクソン モバイル コミュニケーションズ, エービー 画像撮影装置、画像撮影装置の制御方法及び制御プログラム
KR101078057B1 (ko) 2009-09-08 2011-10-31 주식회사 팬택 영상인식기법을 이용한 촬영 제어 기능을 구비한 이동단말 및 영상인식기법을 이용한 촬영 제어 시스템
KR101617289B1 (ko) * 2009-09-30 2016-05-02 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20120038675A1 (en) * 2010-08-10 2012-02-16 Jay Wesley Johnson Assisted zoom
US9171198B1 (en) * 2012-04-02 2015-10-27 Google Inc. Image capture technique
KR101858604B1 (ko) 2012-04-30 2018-05-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9952663B2 (en) * 2012-05-10 2018-04-24 Umoove Services Ltd. Method for gesture-based operation control
CN203070205U (zh) 2012-06-21 2013-07-17 乾行讯科(北京)科技有限公司 一种基于手势识别的输入设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100299642A1 (en) * 2009-05-22 2010-11-25 Thomas Merrell Electronic Device with Sensing Assembly and Method for Detecting Basic Gestures
US20110018795A1 (en) * 2009-07-27 2011-01-27 Samsung Electronics Co., Ltd. Method and apparatus for controlling electronic device using user interaction
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
US20120281129A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Camera control
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления

Also Published As

Publication number Publication date
US20160156838A1 (en) 2016-06-02
KR20160065920A (ko) 2016-06-09
TW201532436A (zh) 2015-08-16
CN105705993A (zh) 2016-06-22
RU2016117174A (ru) 2017-11-02
EP3074817A1 (en) 2016-10-05
US9628699B2 (en) 2017-04-18
EP3074817A4 (en) 2017-07-12
TWI586167B (zh) 2017-06-01
WO2015077978A1 (en) 2015-06-04
CN105705993B (zh) 2019-09-06
JP2017505553A (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
RU2649773C2 (ru) Управление камерой посредством функции распознавания лица
US10645272B2 (en) Camera zoom level and image frame capture control
US11119577B2 (en) Method of controlling an operation of a camera apparatus and a camera apparatus
US10291842B2 (en) Digital photographing apparatus and method of operating the same
KR102429427B1 (ko) 촬영 장치 및 그 동작 방법
KR101772177B1 (ko) 사진을 획득하기 위한 방법 및 장치
US9307151B2 (en) Method for controlling camera of device and device thereof
US9699389B2 (en) Image displaying apparatus and image displaying method
US11483469B2 (en) Camera zoom level and image frame capture control
KR102424984B1 (ko) 복수 개의 카메라를 포함하는 전자 장치 및 그 동작 방법
TW201316760A (zh) 攝像裝置、及其之控制方法
KR102059598B1 (ko) 디지털 촬영 장치 및 그의 제어 방법
WO2010136853A1 (en) Self-portrait assistance in image capturing devices
US20180324351A1 (en) Control device, control method, and program
EP3316568B1 (en) Digital photographing device and operation method therefor
US20160165141A1 (en) Camera timer
US11450131B2 (en) Electronic device
JP6751620B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
KR20170009089A (ko) 사용자의 제스쳐를 이용하여 기능을 제어하는 방법 및 촬영 장치.
JP2023545536A (ja) 撮影方法、撮影装置、電子機器及び可読記憶媒体
US9001254B2 (en) Digital photographing apparatus and method of controlling the same
KR20210101009A (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
US20190052815A1 (en) Dual-camera image pick-up apparatus and image capturing method thereof
JPWO2019065820A1 (ja) 撮影装置とその制御方法および制御プログラム
KR101336238B1 (ko) 디지털 촬영장치 및 이의 제어방법

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20191130