RU2016115038A - Способ и устройство для распознавания объекта - Google Patents
Способ и устройство для распознавания объекта Download PDFInfo
- Publication number
- RU2016115038A RU2016115038A RU2016115038A RU2016115038A RU2016115038A RU 2016115038 A RU2016115038 A RU 2016115038A RU 2016115038 A RU2016115038 A RU 2016115038A RU 2016115038 A RU2016115038 A RU 2016115038A RU 2016115038 A RU2016115038 A RU 2016115038A
- Authority
- RU
- Russia
- Prior art keywords
- information
- recognized
- target
- recognizing
- submodule
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Claims (68)
1. Способ распознавания объекта, в котором способ применяется в носимом устройстве и содержит этапы, на которых:
определяют объект, который должен быть распознан; и
когда предварительно заданное условие удовлетворено, локализуют и отчетливо отображают объект, который должен быть распознан.
2. Способ распознавания объекта по п.1, в котором этап, на котором определяют объект, который должен быть распознан, содержит этапы, на которых:
распознают текущий объект и определяют объект, который должен быть распознан, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации о текущем объекте; или
получают информацию объекта, соответствующую параметрам времени и/или размещения, согласно предварительно сохраненной информации поведения, и определяют объект, который должен быть распознан, соответствующий параметрам времени и/или размещения, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации объекта; или
принимают информацию о целевом объекте, отправленную из устройства распознавания изображений, и определяют объект, который должен быть распознан, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации о целевом объекте.
3. Способ распознавания объекта по п.2, в котором до этапа, на котором определяют объект, который должен быть распознан, способ дополнительно содержит этап, на котором:
принимают и сохраняют таблицу взаимосвязей для сопоставления объектов, при этом таблица взаимосвязей для сопоставления объектов содержит соответствия между совпадающими объектами.
4. Способ распознавания объекта по п.2, в котором перед этапом, на котором получают информацию объекта, соответствующую параметрам времени и/или размещения, согласно предварительно сохраненной информации поведения, способ дополнительно содержит этапы, на которых:
принимают информацию поведения, введенную пользователем, и сохраняют информацию поведения; или
собирают информацию поведения пользователя и сохраняют информацию поведения.
5. Способ распознавания объекта по п.1 или 2, в котором удовлетворение предварительно заданного условия содержит:
обнаружение, что изменение угла носимого устройства превышает предварительно заданную пороговую величину угла; или
обнаружение, что включена кнопка для отчетливого отображения на носимом устройстве.
6. Способ распознавания объекта по п.4, в котором удовлетворение предварительно заданного условия содержит:
обнаружение, что текущее время достигает времени, записанного в предварительно сохраненной информации поведения; и/или
обнаружение, что текущее размещение соответствует размещению, записанному в предварительно сохраненной информации поведения.
7. Способ распознавания объекта по п.1, в котором этап, на котором отчетливо отображают объект, который должен быть распознан, содержит этапы, на которых:
отображают объект, который должен быть распознан, с помощью увеличенной части или всего объекта; или
осуществляют мигание объекта, который должен быть распознан.
8. Способ распознавания объекта, содержащий этапы, на которых:
получают информацию о целевом объекте; и
отправляют информацию о целевом объекте на носимое устройство, так чтобы носимое устройство определило объект, который должен быть распознан, согласно информации о целевом объекте, локализовало объект, который должен быть распознан, когда удовлетворено предварительно заданное условие, и отчетливо отобразило объект, который должен быть распознан.
9. Способ распознавания объекта по п.8, в котором этап, на котором получают информацию о целевом объекте, содержит этапы, на которых:
сканируют информацию объекта в пределах текущего диапазона обзора; и
определяют, находится ли просканированная информация объекта в предварительно сохраненной таблице информации целевого объекта, и если просканированная информация объекта находится в предварительно сохраненной таблице информации целевого объекта, определяют, что просканированная информация объекта является информацией о целевом объекте.
10. Способ распознавания объекта по п.9, в котором перед этапом, на котором определяют, находится ли просканированная информация объекта в предварительно сохраненной таблице информации целевого объекта, причем способ дополнительно содержит этап, на котором:
принимают и сохраняют таблицу информации целевого объекта, при этом таблица информации целевого объекта содержит информацию объекта, совпадающего с объектом, который должен быть распознан.
11. Устройство для распознавания объекта, при этом устройство применяется в носимом устройстве и содержит:
модуль определения, выполненный с возможностью определения объекта, который должен быть распознан; и
модуль отображения, выполненный с возможностью, когда предварительно заданное условие удовлетворено, локализации и отчетливого отображения объекта, который должен быть распознан, который определен модулем определения.
12. Устройство для распознавания объекта по п.11, в котором модуль определения содержит:
первый подмодуль определения, выполненный с возможностью распознавания текущего объекта и определения объекта, который должен быть распознан, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации о текущем объекте; или
второй подмодуль определения, выполненный с возможностью получения информации объекта, соответствующей параметрам времени и/или размещения, согласно предварительно сохраненной информации поведения, и определения объекта, который должен быть распознан, соответствующего параметрам времени и/или размещения, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации объекта; или
третий подмодуль определения, выполненный с возможностью приема информации о целевом объекте, отправленной из устройства распознавания изображений, и определения объекта, который должен быть распознан, посредством осуществления опроса предварительно сохраненной таблицы взаимосвязей для сопоставления объектов согласно информации о целевом объекте.
13. Устройство для распознавания объекта по п.12, дополнительно содержащее:
первый модуль сохранения, выполненный с возможностью, до определения модулем определения объекта, который должен быть распознан, приема и сохранения таблицы взаимосвязей для сопоставления объектов, при этом таблица взаимосвязей для сопоставления объектов содержит соответствия между совпадающими объектами.
14. Устройство для распознавания объекта по п.12, дополнительно содержащее:
второй модуль сохранения, выполненный с возможностью, до получения информации объекта, соответствующей параметрам времени и/или размещения, вторым подмодулем определения, согласно предварительно сохраненной информации поведения, приема информации поведения, введенной пользователем, и сохранения информации поведения; или осуществления сбора информации поведения пользователя и сохранения информации поведения.
15. Устройство для распознавания объекта по п.11 или 12, в котором модуль отображения содержит:
первый подмодуль обнаружения, выполненный с возможностью обнаружения, что изменение угла носимого устройства превышает предварительно заданную пороговую величину угла; или
второй подмодуль обнаружения, выполненный с возможностью обнаружения, что включена кнопка для отчетливого отображения на носимом устройстве.
16. Устройство для распознавания объекта по п.14, в котором модуль отображения содержит:
третий подмодуль обнаружения, выполненный с возможностью обнаружения, что текущее время достигает времени, записанного в предварительно сохраненной информации поведения; и/или обнаружения, что текущее размещение соответствует размещению, записанному в предварительно сохраненной информации поведения.
17. Устройство для распознавания объекта по п.11, в котором модуль отображения содержит:
первый подмодуль отображения, выполненный с возможностью отображения объекта, который должен быть распознан, с помощью увеличенной части или всего объекта; или
второй подмодуль отображения, выполненный с возможностью осуществления мигания объекта, который должен быть распознан.
18. Устройство для распознавания объекта, содержащее:
модуль получения, выполненный с возможностью получения информации о целевом объекте; и
модуль отправки, выполненный с возможностью отправки информации о целевом объекте, полученной модулем получения, на носимое устройство, так чтобы носимое устройство определило объект, который должен быть распознан, согласно информации о целевом объекте, локализовало объект, который должен быть распознан, когда удовлетворено предварительно заданное условие, и отчетливо отобразило объект, который должен быть распознан.
19. Устройство для распознавания объекта по п.18, в котором модуль получения содержит:
подмодуль сканирования, выполненный с возможностью сканирования информации объекта в пределах текущего диапазона обзора; и
подмодуль определения, выполненный с возможностью определения, находится ли информация объекта, просканированная подмодулем сканирования, в предварительно сохраненной таблице информации целевого объекта, и если просканированная информация объекта находится в предварительно сохраненной таблице информации целевого объекта, определения, что просканированная информация объекта является информацией о целевом объекте.
20. Устройство для распознавания объекта по п.19, в котором модуль получения дополнительно содержит:
подмодуль сохранения, выполненный с возможностью, до определения подмодулем определения, находится ли просканированная информация объекта в предварительно сохраненной таблице информации целевого объекта, приема и сохранения таблицы информации целевого объекта, при этом таблица информации целевого объекта содержит информацию объекта, совпадающего с объектом, который должен быть распознан.
21. Устройство для распознавания объекта, содержащее:
процессор; и
память для хранения инструкций, исполняемых процессором;
при этом процессор выполнен с возможностью:
определения объекта, который должен быть распознан; и
когда предварительно заданное условие удовлетворено, локализации и отчетливого отображения объекта, который должен быть распознан.
22. Устройство для распознавания объекта, содержащее:
процессор; и
память для хранения инструкций, исполняемых процессором;
при этом процессор выполнен с возможностью:
получения информации о целевом объекте; и
отправки информации о целевом объекте на носимое устройство, так чтобы носимое устройство определило объект, который должен быть распознан, согласно информации о целевом объекте, локализовало объект, который должен быть распознан, когда удовлетворено предварительно заданное условие, и отчетливо отобразило объект, который должен быть распознан.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510253929.XA CN104850229B (zh) | 2015-05-18 | 2015-05-18 | 识别物体的方法及装置 |
CN201510253929.X | 2015-05-18 | ||
PCT/CN2015/098717 WO2016184104A1 (zh) | 2015-05-18 | 2015-12-24 | 识别物体的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2016115038A true RU2016115038A (ru) | 2017-10-24 |
RU2642391C2 RU2642391C2 (ru) | 2018-01-24 |
Family
ID=53849925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016115038A RU2642391C2 (ru) | 2015-05-18 | 2015-12-24 | Способ и устройство для распознавания объекта |
Country Status (8)
Country | Link |
---|---|
US (1) | US10133957B2 (ru) |
EP (1) | EP3096209B1 (ru) |
JP (1) | JP6326552B2 (ru) |
KR (1) | KR101758648B1 (ru) |
CN (1) | CN104850229B (ru) |
MX (1) | MX357003B (ru) |
RU (1) | RU2642391C2 (ru) |
WO (1) | WO2016184104A1 (ru) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850229B (zh) * | 2015-05-18 | 2019-03-22 | 小米科技有限责任公司 | 识别物体的方法及装置 |
CN107273106B (zh) * | 2016-04-08 | 2021-07-06 | 北京三星通信技术研究有限公司 | 物体信息翻译、以及衍生信息获取方法和装置 |
CN105928504B (zh) * | 2016-04-14 | 2018-03-20 | 北京小米移动软件有限公司 | 障碍物定位方法、装置及系统 |
CN106200786B (zh) * | 2016-06-29 | 2020-05-26 | 联想(北京)有限公司 | 一种信息处理方法及穿戴式电子设备 |
CN106294558A (zh) * | 2016-07-26 | 2017-01-04 | 北京小米移动软件有限公司 | 物体定位方法和装置 |
CN106897665B (zh) * | 2017-01-17 | 2020-08-18 | 北京光年无限科技有限公司 | 应用于智能机器人的物体识别方法及系统 |
US9998790B1 (en) | 2017-03-30 | 2018-06-12 | Rovi Guides, Inc. | Augmented reality content recommendation |
DE102017207470A1 (de) * | 2017-05-04 | 2018-11-08 | BSH Hausgeräte GmbH | System mit einem Kälteraum und mit einer Ausgabeeinheit |
US10860165B2 (en) | 2018-09-26 | 2020-12-08 | NextVPU (Shanghai) Co., Ltd. | Tracking method and apparatus for smart glasses, smart glasses and storage medium |
CN110955043A (zh) * | 2018-09-26 | 2020-04-03 | 上海肇观电子科技有限公司 | 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质 |
KR102242719B1 (ko) * | 2018-09-26 | 2021-04-23 | 넥스트브이피유 (상하이) 코포레이트 리미티드 | 스마트 안경 추적 방법과 장치, 및 스마트 안경과 저장 매체 |
CN111814510B (zh) * | 2019-04-10 | 2024-04-05 | 杭州海康威视数字技术股份有限公司 | 一种遗留物主体检测方法及装置 |
US11933621B2 (en) * | 2021-10-06 | 2024-03-19 | Qualcomm Incorporated | Providing a location of an object of interest |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2885435T3 (es) * | 2001-04-30 | 2021-12-13 | Activemap Llc | Mapa interactivo presentado electrónicamente |
US7319877B2 (en) * | 2003-07-22 | 2008-01-15 | Microsoft Corporation | Methods for determining the approximate location of a device from ambient signals |
JP2007018456A (ja) * | 2005-07-11 | 2007-01-25 | Nikon Corp | 情報表示装置及び情報表示方法 |
US20080147730A1 (en) * | 2006-12-18 | 2008-06-19 | Motorola, Inc. | Method and system for providing location-specific image information |
DE102007022888B3 (de) * | 2007-05-14 | 2008-11-27 | Olympus Winter & Ibe Gmbh | Verfahren und Vorrichtung zur Bildverarbeitung von Endoskopbildern |
US9571625B2 (en) * | 2009-08-11 | 2017-02-14 | Lg Electronics Inc. | Electronic device and control method thereof |
US8239130B1 (en) * | 2009-11-12 | 2012-08-07 | Google Inc. | Enhanced identification of interesting points-of-interest |
AU2011220382A1 (en) * | 2010-02-28 | 2012-10-18 | Microsoft Corporation | Local advertising content on an interactive head-mounted eyepiece |
US20110251920A1 (en) * | 2010-04-08 | 2011-10-13 | Douglas Watson | Item finder system for finding items stored in storage regions |
KR101357262B1 (ko) * | 2010-08-13 | 2014-01-29 | 주식회사 팬택 | 필터 정보를 이용한 객체 인식 장치 및 방법 |
US9013550B2 (en) * | 2010-09-09 | 2015-04-21 | Qualcomm Incorporated | Online reference generation and tracking for multi-user augmented reality |
KR101337555B1 (ko) | 2010-09-09 | 2013-12-16 | 주식회사 팬택 | 객체 연관성을 이용한 증강 현실 제공 장치 및 방법 |
US8174931B2 (en) * | 2010-10-08 | 2012-05-08 | HJ Laboratories, LLC | Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information |
WO2012060039A1 (ja) * | 2010-11-02 | 2012-05-10 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理システム、および情報処理方法 |
JP6013363B2 (ja) * | 2010-12-21 | 2016-10-25 | クアルコム,インコーポレイテッド | ビューの画像の少なくとも1つの特徴に注釈付けするためのコンピュータ化された方法及びデバイス |
US8203605B1 (en) * | 2011-05-11 | 2012-06-19 | Google Inc. | Point-of-view object selection |
US9342610B2 (en) * | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
RU2014126446A (ru) * | 2011-12-19 | 2016-02-10 | БЁДЗ ИН ЗЕ ХЭНД, Эл-Эл-Си | Способ и система для совместного использования данных об объекте |
US9407860B2 (en) * | 2012-04-06 | 2016-08-02 | Melvin Lee Barnes, JR. | System, method and computer program product for processing image data |
US9035970B2 (en) * | 2012-06-29 | 2015-05-19 | Microsoft Technology Licensing, Llc | Constraint based information inference |
US9443414B2 (en) * | 2012-08-07 | 2016-09-13 | Microsoft Technology Licensing, Llc | Object tracking |
JP5787099B2 (ja) * | 2012-11-06 | 2015-09-30 | コニカミノルタ株式会社 | 案内情報表示装置 |
CN102981616B (zh) * | 2012-11-06 | 2017-09-22 | 中兴通讯股份有限公司 | 增强现实中对象的识别方法及系统和计算机 |
KR20140072651A (ko) | 2012-12-05 | 2014-06-13 | 엘지전자 주식회사 | 글래스타입 휴대용 단말기 |
CN103968824B (zh) * | 2013-01-28 | 2018-04-10 | 华为终端(东莞)有限公司 | 一种发现增强现实目标的方法及终端 |
US9092954B2 (en) | 2013-03-15 | 2015-07-28 | Immersion Corporation | Wearable haptic device |
US9429754B2 (en) * | 2013-08-08 | 2016-08-30 | Nissan North America, Inc. | Wearable assembly aid |
JP6222440B2 (ja) * | 2013-10-07 | 2017-11-01 | コニカミノルタ株式会社 | Ar表示システム、およびar表示装置、情報処理装置、プログラム |
US20150134689A1 (en) * | 2013-11-08 | 2015-05-14 | Google Inc. | Image based location determination |
CN103617418A (zh) * | 2013-11-28 | 2014-03-05 | 小米科技有限责任公司 | 一种识别生物的方法、装置及终端设备 |
US9631933B1 (en) * | 2014-05-23 | 2017-04-25 | Google Inc. | Specifying unavailable locations for autonomous vehicles |
US9386401B2 (en) * | 2014-08-25 | 2016-07-05 | Steven K. Gold | Proximity-based sensing, communicating, and processing of user physiologic information |
CN104317815A (zh) * | 2014-09-26 | 2015-01-28 | 英业达科技有限公司 | 可供寻找物品的可穿戴式装置以及寻找物品方法 |
CN204595327U (zh) * | 2014-12-26 | 2015-08-26 | 成都理想境界科技有限公司 | 头戴式显示装置 |
CN104850229B (zh) | 2015-05-18 | 2019-03-22 | 小米科技有限责任公司 | 识别物体的方法及装置 |
-
2015
- 2015-05-18 CN CN201510253929.XA patent/CN104850229B/zh active Active
- 2015-12-24 JP JP2017518406A patent/JP6326552B2/ja active Active
- 2015-12-24 MX MX2016004985A patent/MX357003B/es active IP Right Grant
- 2015-12-24 WO PCT/CN2015/098717 patent/WO2016184104A1/zh active Application Filing
- 2015-12-24 RU RU2016115038A patent/RU2642391C2/ru active
- 2015-12-24 KR KR1020167004130A patent/KR101758648B1/ko active IP Right Grant
-
2016
- 2016-05-10 EP EP16169063.1A patent/EP3096209B1/en active Active
- 2016-05-16 US US15/155,385 patent/US10133957B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3096209A2 (en) | 2016-11-23 |
US10133957B2 (en) | 2018-11-20 |
KR20160147249A (ko) | 2016-12-22 |
MX2016004985A (es) | 2017-03-07 |
JP2017526089A (ja) | 2017-09-07 |
MX357003B (es) | 2018-06-22 |
KR101758648B1 (ko) | 2017-07-17 |
CN104850229B (zh) | 2019-03-22 |
EP3096209A3 (en) | 2017-02-22 |
JP6326552B2 (ja) | 2018-05-16 |
RU2642391C2 (ru) | 2018-01-24 |
EP3096209B1 (en) | 2020-02-12 |
WO2016184104A1 (zh) | 2016-11-24 |
US20160342858A1 (en) | 2016-11-24 |
CN104850229A (zh) | 2015-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2016115038A (ru) | Способ и устройство для распознавания объекта | |
JP2017536764A5 (ru) | ||
RU2017102685A (ru) | Способ и аппарат для управления электронным устройством и терминал | |
US10846537B2 (en) | Information processing device, determination device, notification system, information transmission method, and program | |
US20150084858A1 (en) | Display device, content display method, and a non-transitory computer-readable storage medium | |
RU2018101202A (ru) | Системы и способы для обнаружения обманных объектов и анализа жизненности | |
RU2018105095A (ru) | Способ и устройство для определения карты глубины для изображения | |
RU2016121142A (ru) | Способ и устройство получения изображений | |
RU2016103409A (ru) | Определение расстояния или положения | |
JP2017129567A5 (ru) | ||
US20190325207A1 (en) | Method for human motion analysis, apparatus for human motion analysis, device and storage medium | |
EP2639743A3 (en) | Image processing device, image processing program, and image processing method | |
JP2013232181A5 (ru) | ||
RU2016138012A (ru) | Система и/или способ распознавания покрытия для стекла | |
RU2016116952A (ru) | Способы, устройства, терминал и маршрутизатор для отправки сообщения | |
US20170055826A1 (en) | A visual acuity test method, apparatus and system | |
GB2602588A (en) | Electronic device for automated user identification | |
RU2016104931A (ru) | Способ и устройство для отображения разговорного интерфейса | |
RU2017128710A (ru) | Одновременные аутентификация защищенного изделия и идентификация пользователя защищенного изделия | |
CN102722967A (zh) | 近距离观看电视的提醒方法和装置 | |
JP2019016316A5 (ru) | ||
JP2018205648A5 (ru) | ||
RU2016136710A (ru) | Способ и устройство для получения результатов поиска | |
JP2014238727A5 (ru) | ||
RU2015124377A (ru) | Способ и устройство для отправки сообщений |