JP6326552B2 - 物体識別方法、装置、プログラム及び記録媒体 - Google Patents

物体識別方法、装置、プログラム及び記録媒体 Download PDF

Info

Publication number
JP6326552B2
JP6326552B2 JP2017518406A JP2017518406A JP6326552B2 JP 6326552 B2 JP6326552 B2 JP 6326552B2 JP 2017518406 A JP2017518406 A JP 2017518406A JP 2017518406 A JP2017518406 A JP 2017518406A JP 6326552 B2 JP6326552 B2 JP 6326552B2
Authority
JP
Japan
Prior art keywords
identification
information
target object
waiting
object information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017518406A
Other languages
English (en)
Other versions
JP2017526089A (ja
Inventor
明勇 唐
明勇 唐
涛 ▲陳▼
涛 ▲陳▼
▲華▼一君 ▲劉▼
▲華▼一君 ▲劉▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Inc
Original Assignee
Xiaomi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Inc filed Critical Xiaomi Inc
Publication of JP2017526089A publication Critical patent/JP2017526089A/ja
Application granted granted Critical
Publication of JP6326552B2 publication Critical patent/JP6326552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Hardware Design (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Eye Examination Apparatus (AREA)

Description

相互参照
本願は、出願番号がCN201510253929.Xであって、出願日が2015年5月18日である中国特許出願に基づき優先権を主張し、当該中国特許出願のすべての内容を本願に援用する。
本発明は、ウェアラブル機器の技術分野に関するものであり、特に、物体識別方法、装、プログラム及び記録媒体に関するものである。
現実生活において、リモコン、ナイフなどのよく使うが適当に置いてしまう物体について、置いた位置を忘れてしまうか、他の人により移動されて、容易に探し出せない場合があり、これは、ユーザに無駄な手数をかける。
現在、主に音響制御の方法で物体を探すが、その実現過程は、物体に1つの音響制御装置を取り付け、トリガー条件を満足する場合、物体に取り付けられている音響制御装置がONされて音響を出すことによって、ユーザが物体を探し出すことができるようにする。
しかしながら、このような方式は、物体に音響制御装置を予め取り付けなければならず、探し出そうとする物体が比較的多い場合、必要な音響制御装置も比較的多くなり、実現手段が複雑であり、不便である。従って、現在、簡易に効果的に物体を探す方式が必要である。
本発明の実施例は、現在物体を探す手段が複雑であり、不便な問題を解決するための物体識別方法、装、プログラム及び記録媒体を提供する。
本発明の実施例の第1の局面によると、ウェアラブル機器に適用される物体識別方法を提供し、当該方法は、
識別待ち物体を確定するステップと、
予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するステップと、を含む。
1つの実施例において、前記識別待ち物体を確定するステップは、
現在の物体を識別し、現在の物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するステップ、または
予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、前記物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するステップ、または
画像識別装置から送信された目標物体情報を受信し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するステップを含んでもよい。
1つの実施例において、前記方法は、前記識別待ち物体を確定するステップの前に、
互いにマッチングする物体間の対応関係が含まれている前記物体マッチング関係表を受信して記憶するステップをさらに含んでもよい。
1つの実施例において、前記方法は、前記予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得するステップの前に、
ユーザから入力された行為情報を受信し、前記行為情報を記憶するステップ、または
ユーザの行為情報を収集し、前記行為情報を記憶するステップをさらに含んでもよい。
1つの実施例において、前記予め設定された条件を満足することは、
前記ウェアラブル機器の変化角度が予め設定された角度閾値を超えると検出されること、または
前記ウェアラブル機器の強調表示ボタンがONされたと検出されることを含んでもよい。
1つの実施例において、前記予め設定された条件を満足することは、
現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出されること、及び/または、
現在の地点が対応する行為情報に記録されている地点であると検出されることを含んでもよい。
1つの実施例において、前記識別待ち物体を強調表示することは、
前記識別待ち物体の局部、または全部を拡大表示すること、または
前記識別待ち物体を点滅表示することを含んでもよい。
本発明の実施例の第2の局面によると、物体識別方法を提供し、当該物体識別方法は、
目標物体情報を獲得するステップと、
ウェアラブル機器に前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するようにするステップと、を含む。
1つの実施例において、前記目標物体情報を獲得するステップは、
現在の視野範囲内の物体情報をスキャンするステップと、
スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、前記物体情報が目標物体情報であると確認するステップと、を含んでもよい。
1つの実施例において、前記方法は、スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認するステップの前に、
識別待ち物体とマッチングする物体情報が含まれている前記目標物体情報表を受信して記憶するステップをさらに含んでもよい。
本発明の実施例の第3の局面によると、ウェアラブル機器に適用される物体識別装置を提供し、当該装置は、
識別待ち物体を確定するように構成される確定モジュールと、
予め設定された条件を満足する場合、前記確定モジュールにより確定された前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される表示モジュールと、を含む。
1つの実施例において、前記確定モジュールは、
現在の物体を識別し、現在の物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するように構成される第1の確定サブモジュール、または
予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、前記物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するように構成される第2の確定サブモジュール、または
画像識別装置から送信された目標物体情報を受信し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するように構成される第3の確定サブモジュールを含んでもよい。
1つの実施例において、前記装置は、前記確定モジュールが前記識別待ち物体を確定する前に、互いにマッチングする物体間の対応関係が含まれている前記物体マッチング関係表を受信して記憶するように構成される第1の記憶モジュールをさらに含んでもよい。
1つの実施例において、前記装置は、前記第2の確定サブモジュールが予め記憶されている行為情報に基づいて時間、及び/または地点パラメータに対応する物体情報を獲得する前に、ユーザから入力された行為情報を受信し、前記行為情報を記憶するか、またはユーザの行為情報を収集し、前記行為情報を記憶するように構成される第2の記憶モジュールをさらに含んでもよい。
1つの実施例において、前記表示モジュールは、
前記ウェアラブル機器の変化角度が予め設定された角度閾値を超えると検出するように構成される第1の検出サブモジュール、または
前記ウェアラブル機器の強調表示ボタンがONされたと検出するように構成される第2の検出サブモジュールを含んでもよい。
1つの実施例において、前記表示モジュールは、
現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出するか、及び/または現在の地点が対応する行為情報に記録されている地点であると検出するように構成される第3の検出サブモジュールを含んでもよい。
1つの実施例において、前記表示モジュールは、
前記識別待ち物体の局部、または全部を拡大表示するように構成される第1の表示サブモジュール、または
前記識別待ち物体を点滅表示するように構成される第2の表示サブモジュールを含んでもよい。
本発明の実施例の第4の局面によると、物体識別装置を提供し、当該装置は、
目標物体情報を獲得するように構成される獲得モジュールと、
ウェアラブル機器に前記獲得モジュールにより獲得された前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される送信モジュールと、を含む。
1つの実施例において、前記獲得モジュールは、
現在の視野範囲内の物体情報をスキャンするように構成されるスキャンサブモジュールと、
前記スキャンサブモジュールがスキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、前記物体情報が目標物体情報であると確認するように構成される確認サブモジュールと、を含んでもよい。
1つの実施例において、前記獲得モジュールは、
スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを前記確認サブモジュールが確認する前に、識別待ち物体とマッチングする物体情報が含まれている前記目標物体情報表を受信して記憶するように構成される記憶サブモジュールをさらに含んでもよい。
本発明の実施例の第5の局面によると、物体識別装置を提供し、当該装置は、
プロセッサと、
前記プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、
識別待ち物体を確定し、
予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される。
本発明の実施例の第6の局面によると、物体識別装置を提供し、当該装置は、
プロセッサと、
前記プロセッサにより実行可能な命令を記憶するためのメモリと、を含み、
前記プロセッサは、
目標物体情報を獲得し、
ウェアラブル機器に前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される。
本発明の実施例の第6の局面によると、プロセッサに実行されることにより、前記の物体識別方法を実現することを特徴とするプログラムを提供する。
本発明の実施例の第7の局面によると、前記のプログラムが記録された記録媒体を提供する。
本発明の実施例に係る技術案は、下記の有益な効果を有する。識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示することによって、ユーザが対応する物体を適時に探し出すようにする。これからわかるように、本実施例は、実現手段が簡易で、効果的であり、必要な物体をユーザが非常に容易に探し出すように助けることができる。
以上の一般的な記述と、以下の詳細の記述は、ただ例示的なものであって、本発明を限定するものではないことを理解すべきである。
ここの図面は、明細書に組み入れて本明細書の一部分を構成し、本発明に該当する実施例を例示するとともに、明細書とともに本発明の原理を解釈するために用いられる。
1つの例示的な実施例に係る物体識別方法のフローチャートである。 1つの例示的な実施例に係る物体識別方法の場面図である。 1つの例示的な実施例に係る別の物体識別方法のフローチャートである。 1つの例示的な実施例に係る別の物体識別方法のフローチャートである。 1つの例示的な実施例に係る別の物体識別方法の場面図である。 1つの例示的な実施例に係るさらに別の物体識別方法のフローチャートである。 1つの例示的な実施例に係るさらに別の物体識別方法のフローチャートである。 1つの例示的な実施例に係る物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係る別の物体識別装置のブロック図である。 1つの例示的な実施例に係るさらに別の物体識別装置のブロック図である。 1つの例示的な実施例に係るさらに別の物体識別装置のブロック図である。 1つの例示的な実施例に係るさらに別の物体識別装置のブロック図である。 1つの例示的な実施例に係る物体識別用装置のブロック図である。
ここで、図面に示される例示的な実施例について詳細に説明する。以下、図面に関連して説明する際に、特別な説明がない限り、異なる図面での同一符号は、同一または類似な要素を示す。以下の例示的な実施例で記載する実施例は、本発明に一致する全ての実施例を代表するわけではない。かえって、それらは、添付される特許請求の範囲で詳細に記載される本発明の一部の態様に一致する装置、及び方法の例に過ぎない。
図1は、1つの例示的な実施例に係る物体識別方法のフローチャートであり、図1に示されたように、当該物体識別方法は、ウェアラブル機器に適用されることができ、ここで、当該ウェアラブル機器は、スマートメガネ、スマートヘルメットなどを含むが、これに限定されず、当該物体識別方法は、下記のステップS101〜S102を含む。
ステップS101において、識別待ち物体を確定する。
当該実施例において、ウェアラブル機器が識別待ち物体を確定する方式は、いろいろあり、例えば、まず現在の物体を識別し、現在の物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、識別待ち物体を確定する。
例を挙げると、ユーザがテレビのリモコンを探そうとする場合、まずスマートメガネを着用した後、一定の期間、例えば3秒テレビを注視して、現在の物体がテレビであるとスマートメガネが識別するようにし、その後、物体マッチング関係表を照会することによって、現在の識別待ち物体を確定することができる。ここで、物体マッチング関係表に記憶されているのは、互いにマッチングする物体間の対応関係である。
説明すべきなことは、現在の物体、例えばテレビを一定の期間、例えば3秒以上注視する必要があるのは、識別効率を向上させるためである。即ち、ユーザがスマートメガネを着用して物体Aとマッチングする物体を探そうとするが、無意識的に先にB物体を1秒注視した場合、もし注視期間について限定せずに直接識別すると、スマートメガネは、まず物体Bを識別してしまい、これは、スマートメガネの識別効率を低下させる。
また、物体マッチング関係表を照会する前に、当該方法は、上記物体マッチング関係表を記憶するステップをさらに含んでもよい。
ステップS102において、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示する。
当該実施例において、予め設定された条件とは、ウェアラブル機器が物体を強調表示するようにトリガーする条件である。例えば、ウェアラブル機器の変化角度が予め設定された角度閾値を超える条件であってもよく、ウェアラブル機器の強調表示ボタンがONされる条件などであってもよい。ここで、当該予め設定された角度閾値は、需要によって柔軟に設定することができる。
スマートメガネが物体を強調表示する条件を満足する場合、識別待ち物体、例えばリモコンの位置を自動的に探し出すことができ、その後、対応する位置に当該物体を強調表示して、ユーザが当該物体を適時に探し出すようにする。ここで、対応する位置は、当該物体との距離が予め設定された範囲内にある位置であってもよい。ここで、予め設定された範囲は、1cm、3cmなどであってもよく、具体的には、物体のサイズなどの要素に基づいて柔軟に設定することができる。物体を強調表示する方式は、当該物体を拡大表示する方式であってもよく、当該物体の局部を拡大表示する方式であってもよく、当該物体を点滅表示する方式、即ち、当該物体をまず拡大してから縮小し、その後また拡大して表示する方式であってもよい。上記は、ただ強調表示の例であり、本実施例は、強調表示の方式について限定しない。
以下、図2と組み合わせて、本発明について例示的な説明を行う。図2に示されたように、ユーザがテレビのリモコンを探し出せない場合、スマートメガネ21を着用した後、テレビ22を一定の期間、例えば5秒注視すると、スマートメガネ21は、ユーザが現在注視している物体がテレビ22であると識別し、その後、物体マッチング関係表を照会して、ユーザが探そうとする物体(即ち、スマートメガネが識別すべきな物体)がテレビ22とマッチングするリモコン23であると確定し、ユーザが頭を振り返ると、即ち、スマートメガネ21が自分の変化角度が予め設定された角度閾値より大きいと検出すると、言い換えると、物体を強調表示するトリガー条件を満足すると、リモコン23を位置決定し、視野内に当該リモコン23を拡大表示する。拡大表示する方式としては、図2に示されたように、リモコン23が位置する箇所に1つの気泡が出てくるようにした後、気泡に拡大されたリモコンを表示してもよい。
これからわかるように、ユーザは、上記方法を通じて、必要な物体を適時に容易に探し出すことができ、特に、ユーザの視力がよくない、ユーザが所在する環境の採光がよくない、又は識別待ち物体の近くに物体が比較的多いなどの状況に適する。
上記物体識別方法の実施例において、識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示することによって、ユーザが対応する物体を適時に探し出すようにする。これから分かるように、本実施例は、実現手段が簡易で、効果的であり、必要な物体をユーザが非常に容易に探し出すように助けることができる。
1つの実施例において、識別待ち物体を確定するステップは、
現在の物体を確定し、現在の物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、識別待ち物体を確定するステップ、または、
予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するステップ、または、
画像識別装置から送信された目標物体情報を受信し、目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、識別待ち物体を確定するステップを含んでもよい。
1つの実施例において、識別待ち物体を確定する前に、当該方法は、
互いにマッチングする物体間の対応関係が含まれている物体マッチング関係表を記憶するステップをさらに含んでもよい。
1つの実施例において、予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得する前に、当該方法は、
ユーザから入力された行為情報を受信し、行為情報を記憶するステップ、または、
ユーザの行為情報を収集し、行為情報を記憶するステップをさらに含んでもよい。
1つの実施例において、予め設定された条件を満足することは、
ウェアラブル機器の変化角度が予め設定された角度閾値を超えると検出されること、又は、
ウェアラブル機器の強調表示ボタンがONされたと検出されることを含んでもよい。
1つの実施例において、予め設定された条件を満足することは、
現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出されること、及び/または、
現在の地点が対応する行為情報に記録されている地点であると検出されることを含んでもよい。
1つの実施例において、識別待ち物体を強調表示することは、
識別待ち物体の局部、又は全部を拡大表示すること、または、
識別待ち物体を点滅表示することを含んでもよい。
具体的に如何に簡易に効果的に物体を識別するかについては、後の実施例を参照すればよい。
以上、本発明の実施例に係る上記方法は、必要な物体をユーザが非常に容易に探し出すように助けることができる。
下記に具体的な実施例を通じて、本発明の実施例に係る技術案を説明する。
図3は、1つの例示的な実施例に係る別の物体識別方法のフローチャートであり、図3に示されたように、下記のステップS301〜S303を含む。
ステップS301において、ユーザの行為情報を獲得して記憶する。
当該実施例において、ウェアラブル機器、例えばスマートメガネは、ユーザから手動にて入力された行為情報を受信し、当該行為情報を記憶してもよく、時間同期化、GPS測位、画面識別などの方式でユーザの行為情報を自動に記録してもよい。
ここで、行為情報は、ユーザがある時間帯にある地点で実行するある物体と関連する行為、例えばユーザが毎週の金曜日の夜7時〜11時に自宅の客間でサッカー試合を観覧することを好む行為であってもよく、ユーザがある時間帯に実行するある物体と関連する行為であってもよく、ユーザがある地点で実行するある物体と関連する行為であってもよい。
ステップS302において、予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定する。
当該実施例において、ウェアラブル機器、例えばスマートメガネは、予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得することができる。例えば、「ユーザが毎週の金曜日の夜7時〜11時に自宅の客間でサッカー試合を観覧することを好む」という行為情報に基づいて、毎週の金曜日の夜7時〜11時、自宅の客間に対応する物体情報がテレビであることを獲得し、その後、テレビと物体マッチング関係表に基づいて、識別待ち物体がリモコンであることが分かる。
ステップS303において、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示する。
当該実施例において、スマートメガネは、現在の時間が予め記憶されている行為情報に記録されている時間に到達したか、及び/または現在の地点が予め記憶されている行為情報に記録されている地点であると検出される場合、識別待ち物体、例えばリモコンの位置を自動に探し出し、その後、対応する位置に当該物体を強調表示して、ユーザが当該物体を適時に探し出すようにする。ここで、対応する位置は、当該物体との距離が予め設定された範囲内にある位置であってもよく、ここで、予め設定された範囲は、2cm、4cmなどであってもよい。物体を強調表示する方式は、当該物体を拡大表示する方式であってもよく、当該物体の局部を拡大表示する方式であってもよく、当該物体を点滅表示する方式、即ち、当該物体をまず拡大してから縮小し、その後また拡大して表示する方式などであってもよい。
これからわかるように、上記実施例において、ウェアラブル機器、例えばスマートメガネは、ユーザにより記録された行為情報に基づいて、記録された特定の時間内に、ユーザが探す物体を強調表示して、必要な物体をユーザが容易に探し出すようにする。
図4は、1つの例示的な実施例に係る別の物体識別方法のフローチャートである。図4に示されたように、下記のステップS401〜S403を含む。
ステップS401において、物体マッチング関係表を受信して記憶する。
当該実施例において、ウェアラブル機器、例えばスマートメガネは、ユーザから入力された物体マッチング関係表を受信し、当該物体マッチング関係表を記憶することができる。
ステップS402において、画像識別装置から送信された目標物体情報を受信し、目標物体情報に基づいて上記物体マッチング関係表を照会して、識別待ち物体を確定する。
当該実施例において、ユーザがウェアラブル機器、例えばスマートメガネを用いて物体を識別する場合、当該物体がスマートメガネに見えない場合がある。例えば、ユーザの吸煙時、スマートメガネは、タバコを識別することができない。当該問題を解決するために、別の装置、即ちカメラなどの画像識別装置を用いて、目標物体、例えばタバコを識別し、その後、スマートメガネに目標物体情報を送信することができ、スマートメガネは、当該目標物体情報を受信した後、上記物体マッチング関係表を照会することによって、識別待ち物体を確定する。
説明すべきなことは、ウェアラブル機器、例えばスマートメガネは、同時に複数の物体を識別することができる。例えば、上記方式によって、タバコとマッチングする物体、即ちライターを識別することができ、図1又は図3に示された実施例の方式を通じて、テレビとマッチングする物体、即ちリモコンを識別することができる。
ステップS403において、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示する。
当該実施例において、ウェアラブル機器の変化角度が予め設定された角度閾値、例えば30度を超える場合に、識別待ち物体、例えばリモコンの位置を自動に探し出し、その後、対応する位置に当該物体を強調表示してもよく、ウェアラブル機器の強調表示ボタンがONされた場合に、識別待ち物体、例えばリモコンの位置を自動に探し出し、その後、対応する位置に当該物体を強調表示してもよい。
ここで、物体を強調表示する方式は、当該物体を拡大表示する方式であってもよく、当該物体の局部を拡大表示する方式であってもよく、当該物体を点滅表示する方式などであってもよい。
下記に図5と組み合わせて、本発明について例示的な説明を行う。図5に示されたように、ユーザが客間でテレビを視聴している時、口にタバコ50をくわえているがライターを探し出せない場合、ユーザがスマートメガネ51を着用してライターを探すとしても、スマートメガネ51は、タバコを識別することができない。しかし、客間に位置しているカメラ52は、タバコ50を識別することができ、識別したタバコ50がカメラ52に記憶されている目標物体情報表にあることを確認すると、ブルートゥース、ワイファイ(wifi)などの方式でスマートメガネ51にタバコ50の情報を送信し、スマートメガネは、タバコ50の情報を受信した後、予め記憶されている物体マッチング関係表を照会することによって、タバコ50とマッチングする物体がライターであることを獲得すると、視野内にライターを自動に拡大表示する。
これからわかるように、ユーザは、カメラなどの画像識別装置とスマートメガネを用いて、必要な物体を容易に探し出すことができる。
図6は、1つの例示的な実施例に係るさらに別の物体識別方法のフローチャートであり、当該方法は、画像識別装置に適用されることができ、ここで、画像識別装置は、カメラを含むが、これに限定されず、当該方法は、下記のステップS601〜S602を含む。
ステップS601において、目標物体情報を獲得する。
当該実施例において、目標物体情報とは、スマートメガネが識別できない物体であり、即ち、探そうとする物体とマッチングする物体、例えば図5におけるタバコである。
ステップS602において、ウェアラブル機器に目標物体情報を送信して、ウェアラブル機器が目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示するようにする。
当該実施例において、画像識別装置は、目標物体情報を獲得した後、ブルートゥース、wifiなどの方式で、ウェアラブル機器、例えばスマートメガネに目標物体情報を送信することができる。
ウェアラブル機器が目標物体情報を受信した後、識別待ち物体を確定し、識別待ち物体を強調表示する過程は、図1に示された実施例を参照すればよく、ここで記述しない。
上記物体識別方法の実施例において、目標物体情報を獲得し、ウェアラブル機器に目標物体情報を送信して、ウェアラブル機器が目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示するようにして、ユーザが対応する物体を適時に探し出すようにする。これからわかるように、本実施例は、実現手段が簡易で、効果的であり、必要な物体をユーザが非常に容易に探し出すように助けることができる。
1つの実施例において、目標物体情報を獲得するステップは、
現在の視野範囲内の物体情報をスキャンし、スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、物体情報が目標物体情報であると確認するステップを含んでもよい。
1つの実施例において、スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認する前に、
識別待ち物体とマッチングする物体情報が含まれている目標物体情報表を受信して記憶するステップをさらに含む。
図7は、1つの例示的な実施例に係るさらに別の物体識別方法のフローチャートであり、当該方法は、カメラに適用されることができ、当該方法は、下記のステップS701〜S703を含む。
ステップS701において、目標物体情報表を受信して記憶する。
当該実施例において、カメラが目標物体情報表を記憶するのは、識別した物体が目標物体であるか否かを確定するためである。
ステップS702において、現在の視野範囲内の物体情報をスキャンし、スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあると確認した場合、当該物体情報が目標物体情報であると確認する。
当該実施例において、カメラは、現在の視野範囲内の物体情報をスキャンし、物体Aをスキャンし、且つ物体Aが目標物体情報表にある場合、当該物体Aは、目標物体であり、物体Aが目標物体情報表にない場合、当該物体Aは、目標物体ではない。
ステップS703において、ウェアラブル機器に目標物体情報を送信して、ウェアラブル機器が目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示するようにする。
当該実施例において、カメラは、物体Aが目標物体であると確定した後、ウェアラブル機器、例えばスマートメガネに物体Aの情報を送信し、ウェアラブル機器は、物体A、例えばタバコの情報を受信した後、タバコとマッチングする情報がライターであると確定し、ユーザが頭を振り返ると、即ちスマートメガネの変化角度が予め設定された角度閾値を超えると、ライターを点滅表示する。
上記物体識別方法の実施例において、目標物体情報表を記憶して目標物体情報を獲得し、ウェアラブル機器に目標物体情報を送信して、ウェアラブル機器が目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示するようにすることによって、ユーザが対応する物体を適時に探し出すようにする。これからわかるように、本実施例は、実現手段が簡易で、効果的であり、必要な物体をユーザが非常に容易に探し出すように助けることができる。
図8は、1つの例示的な実施例に係る物体識別装置のブロック図であり、当該装置は、ウェアラブル機器に適用されることができ、図8に示されたように、当該物体識別装置は、確定モジュール81、及び表示モジュール82を含む。
確定モジュール81は、識別待ち物体を確定するように構成される。
表示モジュール82は、予め設定された条件を満足する場合、確定モジュール81により確定された識別待ち物体を位置決定し、識別待ち物体を強調表示するように構成される。
図9Aは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Aに示されたように、上記図8に示された実施例を基礎にして、確定モジュール81は、
現在の物体を識別し、現在の物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、識別待ち物体を確定するように構成される第1の確定サブモジュール811、または
予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するように構成される第2の確定サブモジュール812、または
画像識別装置から送信された目標物体情報を受信し、目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、識別待ち物体を確定するように構成される第3の確定サブモジュール813を含んでもよい。
図9Bは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Bに示されたように、上記図9Aに示された実施例を基礎にして、当該装置は、
確定モジュール81が識別待ち物体を確定する前に、互いにマッチングする物体間の対応関係が含まれている物体マッチング関係表を受信して記憶するように構成される第1の記憶モジュール83をさらに含んでもよい。
図9Cは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Cに示されたように、上記図9Aに示された実施例を基礎にして、当該装置は、
第2の確定サブモジュール812が予め記憶されている行為情報に基づいて時間、及び/または地点パラメータに対応する物体情報を獲得する前に、ユーザから入力された行為情報を受信し、行為情報を記憶するか、またはユーザの行為情報を収集し、行為情報を記憶するように構成される第2の記憶モジュール84をさらに含んでもよい。
図9Dは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Dに示されたように、上記図8に示された実施例を基礎にして、当該表示モジュール82は、
ウェアラブル機器の変化角度が予め設定された角度閾値を超えると検出するように構成される第1の検出サブモジュール821、または
ウェアラブル機器の強調表示ボタンがONされたと検出するように構成される第2の検出サブモジュール822を含む。
また、図9Aの表示モジュール82も、第1の検出サブモジュール821、または第2の検出サブモジュール822を含んでもよいが、図面に示さない。
図9Eは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Eに示されたように、上記図9Cに示された実施例を基礎にして、表示モジュール82は、
現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出するか、及び/または現在の地点が対応する行為情報に記録されている地点であると検出するように構成される第3の検出サブモジュール823を含んでもよい。
図9Fは、1つの例示的な実施例に係る別の物体識別装置のブロック図であり、図9Fに示されたように、上記図8に示された実施例を基礎にして、表示モジュール82は、
識別待ち物体の局部、または全部を拡大表示するように構成される第1の表示サブモジュール824、または
識別待ち物体を点滅表示するように構成される第2の表示サブモジュール825を含んでもよい。
図10は、1つの例示的な実施例に係るさらに別の物体識別装置のブロック図であり、図10に示されたように、当該物体識別装置は、獲得モジュール91と送受信モジュール92を含む。
獲得モジュール91は、目標物体情報を獲得するように構成される。
送信モジュール92は、ウェアラブル機器に獲得モジュールにより獲得された目標物体情報を送信して、ウェアラブル機器が目標物体情報に基づいて識別待ち物体を確定し、予め設定された条件を満足する場合、識別待ち物体を位置決定し、識別待ち物体を強調表示するように構成される。
図11Aは、1つの例示的な実施例に係るさらに別の物体識別装置のブロック図であり、図11Aに示されたように、上記図10に示された実施例を基礎にして、獲得モジュール91は、
現在の視野範囲内の物体情報をスキャンするように構成されるスキャンサブモジュール911、及び、
スキャンサブモジュール911がスキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、物体情報が目標物体情報であると確認するように構成される確認サブモジュール912を含む。
図11Bは、1つの例示的な実施例に係るさらに別の物体識別装置のブロック図であり、図11Bに示されたように、上記図11Aに示された実施例を基礎にして、獲得モジュール91は、
スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認サブモジュール912が確認する前に、識別待ち物体とマッチングする物体情報が含まれている目標物体情報表を受信して記憶するように構成される記憶サブモジュール913をさらに含んでもよい。
上記実施例の装置において、その各モジュールが動作を行う具体的な方式は、既に関連する方法実施例で詳しく説明したので、ここで詳細な説明をしない。
図12は、1つの例示的な実施例に係る物体識別用装置のブロック図である。例えば、装置1200は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療設備、フィットネス装置、PDA、スマートメガネ又はカメラなどである。
図12を参照すると、装置1200は、プロセスアセンブリ1202、メモリ1204、電源アセンブリ1206、マルチメディアアセンブリ1208、オーディオアセンブリ1210、入出力(I/O)インタフェース1212、センサアセンブリ1214、及び通信アセンブリ1216のような1つ或いは複数のアセンブリを含んでもよい。
プロセスアセンブリ1202は、一般的には装置1200の全体の動作を制御するものであり、例えば、表示、電話呼び出し、データ通信、カメラ操作、及び記録操作と関連する操作を制御する。プロセスアセンブリ1202は、1つ以上のプロセッサ1220を含み、これらによって命令を実行することにより、上記の方法の全部、或は一部のステップを実現するようにしてもよい。なお、プロセスアセンブリ1202は、1つ以上のモジュールを含んでプロセスアセンブリ1202と他のアセンブリの間のインタラクションを容易にしてもよい。例えば、プロセスアセンブリ1202は、マルチメディアモジュールを含んでマルチメディアアセンブリ1208とプロセスアセンブリ1202の間のインタラクションを容易にしてもよい。
メモリ1204は、各種類のデータを記憶することにより装置1200の動作を支援するように構成される。これらのデータの例は、装置1200において操作されるいずれのアプリケーションプログラム又は方法の命令、連絡対象データ、電話帳データ、メッセージ、画像、ビデオ等を含む。メモリ1204は、いずれかの種類の揮発性メモリ、不揮発性メモリ記憶デバイスまたはそれらの組み合わせによって実現されてもよく、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク、或いは光ディスクである。
電源アセンブリ1206は、装置1200の各アセンブリに電力を供給する。電源アセンブリ1206は、電源管理システム、1つ或いは複数の電源、及び装置1200のための電力の生成、管理、及び割り当てに関連する他のアセンブリを含んでもよい。
マルチメディアアセンブリ1208は、上記装置1200とユーザの間に1つの出力インタフェースを提供するスクリーンを含む。部分実施例において、スクリーンは、液晶モニター(LCD)とタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含むことにより、スクリーンはタッチスクリーンを実現することができ、ユーザからの入力信号を受信することができる。タッチパネルは、1つ以上のタッチセンサを含み、タッチ、スライド、及びタッチパネル上のジェスチャを検出することができる。上記タッチセンサは、タッチ、或はスライド動作の境界だけでなく、上記タッチ、或はスライド操作に係る継続時間、及び圧力も検出できる。部分実施例において、マルチメディアアセンブリ1208は、1つのフロントカメラ、及び/又はリアカメラを含む。装置1200が、例えば撮影モード、或はビデオモード等の操作モードにある場合、フロントカメラ、及び/又はリアカメラは外部からマルチメディアデータを受信できる。フロントカメラとリアカメラのそれぞれは、1つの固定型の光レンズ系、或は可変焦点距離と光学ズーム機能を有するものであってもよい。
オーディオアセンブリ1210は、オーディオ信号を入出力するように構成される。例えば、オーディオアセンブリ1210は、1つのマイク(MIC)を含み、装置1200が、例えば呼出しモード、記録モード、及び音声認識モード等の操作モードにある場合、マイクは外部のオーディオ信号を受信することができる。受信されたオーディオ信号は、さらにメモリ1204に記憶されたり、通信アセンブリ1216を介して送信されたりする。部分実施例において、オーディオアセンブリ1210は、オーディオ信号を出力するための1つのスピーカーをさらに含む。
I/Oインタフェース1212は、プロセスアセンブリ1202と周辺インタフェースモジュールの間にインタフェースを提供するものであり、上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボタン、ボリュームボタン、起動ボタン、ロッキングボタンを含んでもよいが、これらに限定されない。
センサアセンブリ1214は、装置1200に各方面の状態に対する評価を提供するための1つ以上のセンサを含む。例えば、センサアセンブリ1214は、装置1200のON/OFF状態、装置1200のディスプレイとキーパッドのようなアセンブリの相対的な位置決めを検出できる。また、センサアセンブリ1214は、装置1200、或いは装置1200の1つのアセンブリの位置変更、ユーザと装置1200とが接触しているか否か、装置1200の方位、又は加速/減速、装置1200の温度の変化を検出できる。センサアセンブリ1214は、何れの物理的接触がない状態にて付近の物体の存在を検出するための近接センサを含んでもよい。センサアセンブリ1214は、撮影アプリケーションに適用するため、CMOS、又はCCD画像センサのような光センサを含んでもよい。部分実施例において、当該センサアセンブリ1214は、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ、及び温度センサをさらに含んでもよい。
通信アセンブリ1216は、装置1200と他の機器の間に有線、又は無線形態の通信を提供する。装置1200は、例えばWiFi、2G、3G、或はこれらの組み合わせのような、通信規格に基づいた無線ネットワークに接続されてもよい。1つの例示的な実施例において、通信アセンブリ1216は、放送チャンネルを介して外部の放送管理システムからの放送信号、又は放送に関連する情報を受信する。1つの例示的な実施例において、上記通信アセンブリ1216は、近距離無線通信(NFC)モジュールをさらに含むことにより、近距離通信をプッシュする。例えば、NFCモジュールは、RFID(Radio Frequency IDentification)技術、IrDA(Infrared Data Association)技術、UWB(Ultra Wide Band)技術、BT(Bluetooth)技術、及び他の技術に基づいて実現できる。
例示的な実施例において、装置1200は、1つ以上のASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、DSPD(Digital Signal Processing Device)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ、または他の電子部品によって実現されるものであり、上記方法を実行する。
例示的な実施例において、命令を含むコンピュータ読取り可能な非一時的な記録媒体、例えば命令を含むメモリ1204をさらに提供し、装置1200のプロセッサ1220により上記命令を実行して上記物体識別方法を実現する。例えば、上記コンピュータ読取り可能な非一時的な記録媒体は、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ記憶デバイス等である。
当業者は、明細書に対する理解、及び明細書に記載された発明に対する実施を通じて、本発明の他の実施形態を容易に得ることができる。本発明は、本発明に対する任意の変形、用途、または適応的な変化を含み、このような変形、用途、または適応的な変化は、本発明の一般的な原理に従い、本発明では開示していない本技術分野の公知の知識、または通常の技術手段を含む。明細書と実施例は、ただ例示的なものであって、本発明の本当の範囲と主旨は、以下の特許請求の範囲によって示される。
本発明は、上記で記述し、図面で図示した特定の構成に限定されず、その範囲を離脱しない状況で、様様な修正と変更を実現できる。本発明の範囲は、添付される特許請求の範囲のみにより限定される。

Claims (24)

  1. ウェアラブル機器に適用される物体識別方法であって、
    目標物体情報を取得し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定するステップと、
    予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するステップと、を含み、
    前記予め設定された条件を満足することは、
    前記ウェアラブル機器の前記目標物体からの変化角度が予め設定された角度閾値を超えると検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別方法。
  2. 前記目標物体情報を取得し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定するステップは、
    現在の目標物体を識別し、前記目標物体情報に基づいて、前記予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するステップ、または
    予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、前記物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するステップ、または
    画像識別装置から送信された前記目標物体情報を受信し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するステップを含むことを特徴とする請求項1に記載の物体識別方法。
  3. 前記方法は、前記目標物体情報を取得し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定するステップの前に、
    互いにマッチングする物体間の対応関係が含まれている前記物体マッチング関係表を受信して記憶するステップをさらに含むことを特徴とする請求項2に記載の物体識別方法。
  4. 前記方法は、前記予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得するステップの前に、
    ユーザから入力された行為情報を受信し、前記行為情報を記憶するステップ、または
    ユーザの行為情報を収集し、前記行為情報を記憶するステップをさらに含むことを特徴とする請求項2に記載の物体識別方法。
  5. 前記予め設定された条件を満足することは、
    前記ウェアラブル機器の強調表示ボタンがONされたと検出されることを含むことを特徴とする請求項1又は2に記載の物体識別方法。
  6. 前記予め設定された条件を満足することは、
    現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出されること、及び/または、
    現在の地点が対応する行為情報に記録されている地点であると検出されることを含むことを特徴とする請求項4に記載の物体識別方法。
  7. 前記識別待ち物体を強調表示することは、
    前記識別待ち物体の局部、または全部を拡大表示すること、または
    前記識別待ち物体を点滅表示することを含むことを特徴とする請求項1に記載の物体識別方法。
  8. 目標物体情報を獲得するステップと、
    ウェアラブル機器に前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するようにするステップと、を含み、
    前記予め設定された条件を満足することは、
    前記ウェアラブル機器の前記目標物体からの変化角度が予め設定された角度閾値を超えると検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別方法。
  9. 前記目標物体情報を獲得するステップは、
    現在の視野範囲内の物体情報をスキャンするステップと、
    スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、前記物体情報が目標物体情報であると確認するステップと、
    を含むことを特徴とする請求項8に記載の物体識別方法。
  10. 前記方法は、スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認するステップの前に、
    識別待ち物体とマッチングする物体情報が含まれている前記目標物体情報表を受信して記憶するステップをさらに含むことを特徴とする請求項9に記載の物体識別方法。
  11. ウェアラブル機器に適用される物体識別装置であって、
    目標物体情報を取得し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定するように構成される確定モジュールと、
    予め設定された条件を満足する場合、前記確定モジュールにより確定された前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される表示モジュールと、
    を含み、
    前記表示モジュールは、
    前記ウェアラブル機器の前記目標物体からの変化角度を検出されるように構成される第1の検出サブモジュールを含み、
    前記予め設定された条件を満足することは、
    前記変化角度が予め設定された角度閾値を超えると前記第1の検出サブモジュール検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別装置。
  12. 前記確定モジュールは、
    現在の目標物体を識別し、前記目標物体情報に基づいて、前記予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するように構成される第1の確定サブモジュール、または
    予め記憶されている行為情報に基づいて、時間、及び/または地点パラメータに対応する物体情報を獲得し、前記物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、時間、及び/または地点パラメータに対応する識別待ち物体を確定するように構成される第2の確定サブモジュール、または
    画像識別装置から送信された前記目標物体情報を受信し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会して、前記識別待ち物体を確定するように構成される第3の確定サブモジュールを含むことを特徴とする請求項11に記載の物体識別装置。
  13. 前記確定モジュールが前記識別待ち物体を確定する前に、互いにマッチングする物体間の対応関係が含まれている前記物体マッチング関係表を受信して記憶するように構成される第1の記憶モジュールをさらに含むことを特徴とする請求項12に記載の物体識別装置。
  14. 前記第2の確定サブモジュールが予め記憶されている行為情報に基づいて時間、及び/または地点パラメータに対応する物体情報を獲得する前に、ユーザから入力された行為情報を受信し、前記行為情報を記憶するか、またはユーザの行為情報を収集し、前記行為情報を記憶するように構成される第2の記憶モジュールをさらに含むことを特徴とする請求項12に記載の物体識別装置。
  15. 前記表示モジュールは、
    前記ウェアラブル機器の強調表示ボタンがONされたと検出するように構成される第2の検出サブモジュールを含むことを特徴とする請求項11又は12に記載の物体識別装置。
  16. 前記表示モジュールは、
    現在の時間が予め記憶されている行為情報に記録されている時間に到達したと検出するか、及び/または現在の地点が対応する行為情報に記録されている地点であると検出するように構成される第3の検出サブモジュールを含むことを特徴とする請求項14に記載の物体識別装置。
  17. 前記表示モジュールは、
    前記識別待ち物体の局部、または全部を拡大表示するように構成される第1の表示サブモジュール、または
    前記識別待ち物体を点滅表示するように構成される第2の表示サブモジュールを含むことを特徴とする請求項11に記載の物体識別装置。
  18. 目標物体情報を獲得するように構成される獲得モジュールと、
    ウェアラブル機器に前記獲得モジュールにより獲得された前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成される送信モジュールと、を含み、
    前記予め設定された条件を満足することは、
    前記ウェアラブル機器の前記目標物体からの変化角度が予め設定された角度閾値を超えると検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別装置。
  19. 前記獲得モジュールは、
    現在の視野範囲内の物体情報をスキャンするように構成されるスキャンサブモジュールと、
    前記スキャンサブモジュールがスキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを確認し、ある場合、前記物体情報が目標物体情報であると確認するように構成される確認サブモジュールと、
    を含むことを特徴とする請求項18に記載の物体識別装置。
  20. 前記獲得モジュールは、
    スキャンして獲得した物体情報が予め記憶されている目標物体情報表にあるか否かを前記確認サブモジュールが確認する前に、識別待ち物体とマッチングする物体情報が含まれている前記目標物体情報表を受信して記憶するように構成される記憶サブモジュールをさらに含むことを特徴とする請求項19に記載の物体識別装置。
  21. プロセッサと、
    前記プロセッサにより実行可能な命令を記憶するためのメモリと、
    を含み、
    前記プロセッサは、
    目標物体情報を取得し、前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定し、
    予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成され、
    前記予め設定された条件を満足することは、
    ェアラブル機器の前記目標物体からの変化角度が予め設定された角度閾値を超えると検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別装置。
  22. プロセッサと、
    前記プロセッサにより実行可能な命令を記憶するためのメモリと、
    を含み、
    前記プロセッサは、
    目標物体情報を獲得し、
    ウェアラブル機器に前記目標物体情報を送信して、前記ウェアラブル機器が前記目標物体情報に基づいて、予め記憶されている物体マッチング関係表を照会し、前記目標物体とマッチングされる識別待ち物体を確定し、予め設定された条件を満足する場合、前記識別待ち物体を位置決定し、前記識別待ち物体を強調表示するように構成され、
    前記予め設定された条件を満足することは、
    前記ウェアラブル機器の前記目標物体からの変化角度が予め設定された角度閾値を超えると検出されることを含み、
    前記予め設定された角度閾値は、
    前記ウェアラブル機器の横方向の変化角度であって、30度を超えることを特徴とする物体識別装置。
  23. プロセッサに実行されることにより、請求項1〜10のいずれかに記載の物体識別方法を実現することを特徴とするプログラム。
  24. 請求項23に記載のプログラムが記録された記録媒体。
JP2017518406A 2015-05-18 2015-12-24 物体識別方法、装置、プログラム及び記録媒体 Active JP6326552B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510253929.XA CN104850229B (zh) 2015-05-18 2015-05-18 识别物体的方法及装置
CN201510253929.X 2015-05-18
PCT/CN2015/098717 WO2016184104A1 (zh) 2015-05-18 2015-12-24 识别物体的方法及装置

Publications (2)

Publication Number Publication Date
JP2017526089A JP2017526089A (ja) 2017-09-07
JP6326552B2 true JP6326552B2 (ja) 2018-05-16

Family

ID=53849925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017518406A Active JP6326552B2 (ja) 2015-05-18 2015-12-24 物体識別方法、装置、プログラム及び記録媒体

Country Status (8)

Country Link
US (1) US10133957B2 (ja)
EP (1) EP3096209B1 (ja)
JP (1) JP6326552B2 (ja)
KR (1) KR101758648B1 (ja)
CN (1) CN104850229B (ja)
MX (1) MX357003B (ja)
RU (1) RU2642391C2 (ja)
WO (1) WO2016184104A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850229B (zh) * 2015-05-18 2019-03-22 小米科技有限责任公司 识别物体的方法及装置
CN107273106B (zh) * 2016-04-08 2021-07-06 北京三星通信技术研究有限公司 物体信息翻译、以及衍生信息获取方法和装置
CN105928504B (zh) * 2016-04-14 2018-03-20 北京小米移动软件有限公司 障碍物定位方法、装置及系统
CN106200786B (zh) * 2016-06-29 2020-05-26 联想(北京)有限公司 一种信息处理方法及穿戴式电子设备
CN106294558A (zh) * 2016-07-26 2017-01-04 北京小米移动软件有限公司 物体定位方法和装置
CN106897665B (zh) * 2017-01-17 2020-08-18 北京光年无限科技有限公司 应用于智能机器人的物体识别方法及系统
US9998790B1 (en) * 2017-03-30 2018-06-12 Rovi Guides, Inc. Augmented reality content recommendation
DE102017207470A1 (de) * 2017-05-04 2018-11-08 BSH Hausgeräte GmbH System mit einem Kälteraum und mit einer Ausgabeeinheit
CN110796704A (zh) * 2018-08-01 2020-02-14 中兴通讯股份有限公司 基于监控摄像头的辅助记录方法、设备以及存储介质
CN110955043B (zh) * 2018-09-26 2024-06-18 上海肇观电子科技有限公司 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质
CN110955325A (zh) * 2018-09-26 2020-04-03 上海肇观电子科技有限公司 一种智能眼镜焦点跟踪方法、装置及智能眼镜、存储介质
US10860165B2 (en) 2018-09-26 2020-12-08 NextVPU (Shanghai) Co., Ltd. Tracking method and apparatus for smart glasses, smart glasses and storage medium
WO2020063614A1 (zh) * 2018-09-26 2020-04-02 上海肇观电子科技有限公司 一种智能眼镜跟踪方法、装置及智能眼镜、存储介质
CN111814510B (zh) * 2019-04-10 2024-04-05 杭州海康威视数字技术股份有限公司 一种遗留物主体检测方法及装置
CN113537205A (zh) * 2020-04-21 2021-10-22 中兴通讯股份有限公司 图像识别方法、系统、终端、服务器及存储介质
US11933621B2 (en) * 2021-10-06 2024-03-19 Qualcomm Incorporated Providing a location of an object of interest

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020163547A1 (en) * 2001-04-30 2002-11-07 Michael Abramson Interactive electronically presented map
US7319877B2 (en) * 2003-07-22 2008-01-15 Microsoft Corporation Methods for determining the approximate location of a device from ambient signals
JP2007018456A (ja) * 2005-07-11 2007-01-25 Nikon Corp 情報表示装置及び情報表示方法
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
DE102007022888B3 (de) * 2007-05-14 2008-11-27 Olympus Winter & Ibe Gmbh Verfahren und Vorrichtung zur Bildverarbeitung von Endoskopbildern
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
US8239130B1 (en) * 2009-11-12 2012-08-07 Google Inc. Enhanced identification of interesting points-of-interest
KR20130000401A (ko) * 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US20110251920A1 (en) * 2010-04-08 2011-10-13 Douglas Watson Item finder system for finding items stored in storage regions
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
US9013550B2 (en) * 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
KR101337555B1 (ko) * 2010-09-09 2013-12-16 주식회사 팬택 객체 연관성을 이용한 증강 현실 제공 장치 및 방법
US8174931B2 (en) * 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
WO2012060039A1 (ja) * 2010-11-02 2012-05-10 Necカシオモバイルコミュニケーションズ株式会社 情報処理システム、および情報処理方法
CN103415849B (zh) 2010-12-21 2019-11-15 高通股份有限公司 用于标注视图图像的至少一个特征的计算机化方法和设备
US8203605B1 (en) * 2011-05-11 2012-06-19 Google Inc. Point-of-view object selection
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
RU2014126446A (ru) * 2011-12-19 2016-02-10 БЁДЗ ИН ЗЕ ХЭНД, Эл-Эл-Си Способ и система для совместного использования данных об объекте
US9407860B2 (en) * 2012-04-06 2016-08-02 Melvin Lee Barnes, JR. System, method and computer program product for processing image data
US9035970B2 (en) * 2012-06-29 2015-05-19 Microsoft Technology Licensing, Llc Constraint based information inference
US9443414B2 (en) * 2012-08-07 2016-09-13 Microsoft Technology Licensing, Llc Object tracking
CN102981616B (zh) * 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
JP5787099B2 (ja) 2012-11-06 2015-09-30 コニカミノルタ株式会社 案内情報表示装置
KR20140072651A (ko) 2012-12-05 2014-06-13 엘지전자 주식회사 글래스타입 휴대용 단말기
CN103968824B (zh) * 2013-01-28 2018-04-10 华为终端(东莞)有限公司 一种发现增强现实目标的方法及终端
US9092954B2 (en) 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US9429754B2 (en) * 2013-08-08 2016-08-30 Nissan North America, Inc. Wearable assembly aid
JP6222440B2 (ja) * 2013-10-07 2017-11-01 コニカミノルタ株式会社 Ar表示システム、およびar表示装置、情報処理装置、プログラム
US20150134689A1 (en) * 2013-11-08 2015-05-14 Google Inc. Image based location determination
CN103617418A (zh) * 2013-11-28 2014-03-05 小米科技有限责任公司 一种识别生物的方法、装置及终端设备
US9631933B1 (en) * 2014-05-23 2017-04-25 Google Inc. Specifying unavailable locations for autonomous vehicles
US9386401B2 (en) * 2014-08-25 2016-07-05 Steven K. Gold Proximity-based sensing, communicating, and processing of user physiologic information
CN104317815A (zh) * 2014-09-26 2015-01-28 英业达科技有限公司 可供寻找物品的可穿戴式装置以及寻找物品方法
CN204595327U (zh) * 2014-12-26 2015-08-26 成都理想境界科技有限公司 头戴式显示装置
CN104850229B (zh) 2015-05-18 2019-03-22 小米科技有限责任公司 识别物体的方法及装置

Also Published As

Publication number Publication date
JP2017526089A (ja) 2017-09-07
EP3096209B1 (en) 2020-02-12
RU2016115038A (ru) 2017-10-24
US10133957B2 (en) 2018-11-20
MX357003B (es) 2018-06-22
KR101758648B1 (ko) 2017-07-17
CN104850229A (zh) 2015-08-19
KR20160147249A (ko) 2016-12-22
WO2016184104A1 (zh) 2016-11-24
EP3096209A2 (en) 2016-11-23
MX2016004985A (es) 2017-03-07
EP3096209A3 (en) 2017-02-22
RU2642391C2 (ru) 2018-01-24
CN104850229B (zh) 2019-03-22
US20160342858A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6326552B2 (ja) 物体識別方法、装置、プログラム及び記録媒体
KR101995330B1 (ko) 알림 정보 표시 방법, 장치, 프로그램 및 기록매체
US20170125035A1 (en) Controlling smart device by voice
KR101927407B1 (ko) 메시지 송신 방법, 장치, 단말기, 라우터, 프로그램 및 기록매체
JP6134870B2 (ja) 説明情報の表示方法、説明情報の表示装置、電子装置、プログラム、及び記録媒体
JP2017535208A (ja) 撮影機能を調節する制御方法、制御装置、端末機器、プログラム及び記録媒体
CN104601674A (zh) 通知消息同步方法、装置及系统
KR101803213B1 (ko) 통신 메시지 처리 방법 및 장치
JP6250867B2 (ja) ネットワーク接続方法、装置、プログラム及び記録媒体
KR101684203B1 (ko) 스트림 미디어 데이터를 방송하기 위한 방법 및 장치
JP2017532693A (ja) アプリケーションのインタラクション方法、装置、プログラム及び記録媒体
CN103916691A (zh) 一种电视控制方法和移动终端
CN105425657A (zh) 闹钟响铃控制方法及装置
JP2018503271A (ja) ネットワーク状態情報ディスプレイ方法および装置
JP2017513416A (ja) データ伝送方法、装置、設備、プログラム及び記録媒体
US20160198127A1 (en) Video monitoring methods and devices
KR20160062746A (ko) 디바이스 접속 프롬프팅을 위한 방법 및 장치
JP2017518008A (ja) クラウドカードに基づく電話呼び出し方法、装置、プログラム及び記録媒体
WO2017088373A1 (zh) 账单处理方法、装置和终端设备
CN105847155A (zh) 传输通知消息的方法及装置
KR101716622B1 (ko) 메시지 송신 방법 및 장치, 프로그램 및 기록매체
JP2017505963A (ja) 情報表示方法、装置、プログラム、及び記録媒体
CN104933107A (zh) 推送消息的搜索方法及装置
CN105138298B (zh) 信息共享方法、装置及终端
US11146741B2 (en) Electronic device and method for capturing and displaying image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R150 Certificate of patent or registration of utility model

Ref document number: 6326552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250