CN113272803A - 从电子装置检索智能信息的方法和设备 - Google Patents
从电子装置检索智能信息的方法和设备 Download PDFInfo
- Publication number
- CN113272803A CN113272803A CN202080007849.5A CN202080007849A CN113272803A CN 113272803 A CN113272803 A CN 113272803A CN 202080007849 A CN202080007849 A CN 202080007849A CN 113272803 A CN113272803 A CN 113272803A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- metadata tag
- block
- data item
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000015654 memory Effects 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 230000001815 facial effect Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000002146 bilateral effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 101000658638 Arabidopsis thaliana Protein TRANSPARENT TESTA 1 Proteins 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000609816 Pantholops hodgsonii Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/45—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/383—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/41—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/908—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
相应地,本文的实施例公开了一种用于从电子装置(100)检索智能信息的方法和设备。所述方法包括由电子装置(100)从用户接收输入。此外,所述方法包括由电子装置(100)识别至少一个数据项以生成至少一个元数据标签。此外,所述方法包括由电子装置(100)基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签。此外,所述方法包括由电子装置(100)为所述至少一个元数据标签提供至少一个优先级。此外,所述方法包括由电子装置(100)在电子装置(100)处存储所述至少一个元数据标签。
Description
技术领域
本公开涉及机器学习(ML)和人工智能(AI),并且更具体地涉及一种用于从电子装置检索智能信息的方法和设备。
背景技术
通常,用户在电子装置中具有大量数据(例如,数据项,诸如捕获的图片、屏幕截图、网络浏览和呼叫记录)(如图1中所示)。每次用户想要访问例如特定图像/数据时,用户必须从电子装置中包含的大量数据中手动扫描特定信息/相关数据。在现有系统中没有简单的方式来智能地检索这样的数据,并且现有方法可能是麻烦的并且可能妨碍用户体验。由于找到相关数据是重要的任务,因此需要解决现有系统中的问题。为了解决该任务,需要数据检索技术、机器学习(ML)和人工智能(AI)之间的协作。
因此,期望解决上述弊端或其他缺点,或者至少提供有用的可选方案。
发明内容
技术问题
本文的实施例的主要目的在于提供一种用于从电子装置检索智能信息的方法和设备。
实施例的另一目的在于从用户接收输入并识别至少一个数据项以生成至少一个元数据标签。
实施例的另一目的在于基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签,并为所述至少一个元数据标签提供至少一个优先级。
实施例的另一目的在于接收至少一个候选元数据标签,并将所述至少一个候选元数据标签与存储的所述至少一个元数据标签进行比较。
实施例的另一目的在于响应于确定所述至少一个候选元数据标签与存储的所述至少一个元数据标签之间匹配,检索与所述至少一个候选元数据标签相应的至少一个数据项,并使用检索到的所述至少一个数据项执行至少一个动作。
技术方案
相应地,本文的实施例公开了一种用于从电子装置检索智能信息的方法和设备。所述方法包括由电子装置从用户接收直接输入或间接输入(例如,拍摄屏幕截图)。此外,所述方法包括由电子装置识别至少一个数据项以生成至少一个元数据标签。此外,所述方法包括由电子装置基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签。此外,所述方法包括由电子装置为所述至少一个元数据标签提供至少一个优先级。此外,所述方法包括由电子装置将所述至少一个元数据标签存储在电子装置处。
在实施例中,所述方法还包括由电子装置接收至少一个候选元数据标签。此外,所述方法包括由电子装置将所述至少一个候选元数据标签与存储的所述至少一个元数据标签进行比较。此外,所述方法包括响应于确定所述至少一个候选元数据标签与存储的所述至少一个元数据标签之间匹配,由电子装置检索与所述至少一个候选元数据标签相应的至少一个数据项。此外,所述方法包括由电子装置使用检索到的所述至少一个数据项来执行至少一个动作。
在实施例中,至少一个数据项是基于与所述至少一个候选元数据标签相关联的所述优先级被检索出的。
在实施例中,所述方法包括由电子装置识别所述数据项中可用的图像块、文本块和音频块中的至少一个。此外,所述方法包括由电子装置确定与图像块、文本块和音频块中的所述至少一个相关联的所述多个参数。此外,所述方法包括由电子装置基于所述多个参数生成与所述至少一个数据项相关的所述至少一个元数据标签。
在实施例中,图像块的多个参数包括场景对象块、表情块、面部块和活动块中的至少一个。
在实施例中,文本块的多个参数包括关键词块、语言识别块、分类块、文本摘要块和电子装置内容聚合器块中的至少一个。
在实施例中,音频块的多个参数包括音频摘要和语言识别中的至少一个。
在实施例中,电子装置在不与任何网络装置交互的情况下在本地生成所述至少一个元数据标签。
在实施例中,所述至少一个元数据标签能够由用户自定义。
在实施例中,所述至少一个数据项包括图像文件、视频文件、音频文件和文本文档。
因此,本文的实施例提供一种用于检索智能信息的电子装置。所述电子装置包括处理器和存储器。处理器被配置为从用户接收输入。此外,处理器被配置为识别至少一个数据项以生成至少一个元数据标签。此外,处理器被配置为基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签。此外,处理器被配置为为所述至少一个元数据标签提供至少一个优先级。此外,处理器被配置为将所述至少一个元数据标签存储在电子装置处。
当结合以下描述和附图考虑时,将更好地领会和理解本文的实施例的这些和其他方面。然而,应理解,指示优选实施例及其许多具体细节的以下描述是通过说明而非限制的方式给出的。在不脱离本文的精神的情况下,可在本文的实施例的范围内进行许多改变和修改,并且本文的实施例包括所有这些修改。
有益效果
根据各种实施例,所述电子装置可提供从电子装置检索智能信息。根据各种实施例,可从用户接收输入并识别至少一个数据项以生成至少一个元数据标签。根据各种实施例,可基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签,并且为所述至少一个元数据标签提供至少一个优先级。
附图说明
所述方法在附图中被示出,在整个附图中,相同的参考文字指示各个图中的相应的部件。从以下参照附图的描述中将更好地理解本文的实施例,其中:
图1示出根据本文公开的现有技术的针对通过电子装置用于快速引用或与至少一个第二用户共享的特定数据的现有搜索系统;
图2示出根据如本文公开的实施例的用于检索智能信息的电子装置的框图;
图3A和图3B是示出根据如本文公开的实施例的在电子装置中生成元数据标签的方法的流程图;
图4A、图4B、图4C和图4D是根据如本文公开的实施例的在电子装置中生成元数据标签的方法的示例图示;
图5是示出根据如本文公开的实施例的用于从电子装置检索智能信息的方法的流程图;
图6A、图6B和图6C是根据如本文公开的实施例的使用电子装置的虚拟助理的智能元数据标签和文本内容摘要来检索智能信息的示例图示;
图7A、图7B、图7C和图7D是根据如本文公开的实施例的为电子装置的浏览器应用生成的智能元数据标签和摘要的另一示例图示;
图8A、图8B和图8C是根据如本文公开的实施例的基于图像特征生成元数据标签的另一示例图示;
图9A、图9B和图9C是根据如本文公开的实施例的生成用于电子装置的乘车服务应用的元数据标签的另一示例图示;
图10A至图10F是根据如本文公开的实施例的学习智能摘要器的智能属性以生成用于电子装置的浏览器应用的元数据标签的另一示例图示;
图11A、图11B、图11C和图11D是根据如本文公开的实施例的生成为呼入呼叫创建的元数据标签的另一示例图示;
图12A、图12B、图12C和图12D是根据如本文公开的实施例的基于用于电子装置的消息应用的对话摘要而生成的智能摘要器的另一示例图示;
图13A、图13B、图13C和图13D是根据如本文公开的实施例的生成用于电子装置的录音机应用的元数据标签的另一示例图示;
图14A、图14B和图14C是根据如本文公开的实施例的为电子装置的消息应用生成的智能编写的另一示例图示;以及
图15A和图15B是根据如本文公开的实施例的基于接收到的用于电子装置的消息应用的统一资源定位符(URL)生成的智能回复、智能共享和智能编写的另一示例图示。
具体实施方式
参照在附图中示出并在以下描述中详述的非限制性实施例,更全面地解释本文的实施例及其各种特征和有利细节。省略了对公知组件和处理技术的描述,以免不必要地模糊本文的实施例。此外,本文描述的各种实施例不一定是相互排斥的,因为一些实施例可与一个或更多个其他实施例组合以形成新的实施例。除非另有说明,否则如本文使用的术语“或”指的是非排他性的或。本文使用的示例仅旨在便于理解本文的实施例可被实践的方式,并且还旨在使本领域技术人员能够实践本文的实施例。因此,示例不应被解释为限制本文的实施例的范围。
如本领域中传统的,可根据执行所描述的一个或更多个功能的块来描述和示出实施例。这些块(在本文中可被称为单元或模块等)由模拟电路或数字电路(诸如逻辑门、集成电路、微处理器、微控制器、存储器电路、无源电子组件、有源电子组件、光学组件、硬连线电路等)物理地实现,并且可可选地由固件和软件驱动。例如,可将电路实现在一个或更多个半导体芯片中,或者实现在诸如印刷电路板等的基板支撑件上。构成块的电路可由专用硬件来实现,或者可由处理器(例如,一个或更多个编程的微处理器和相关联的电路)来实现,或者可由执行块的一些功能的专用硬件和执行块的其他功能的处理器的组合来实现。在不脱离本发明的范围的情况下,可将实施例的每个块物理地分成两个或更多个交互和离散的块。同样地,在不脱离本发明的范围的情况下,可将实施例的块物理地组合成更复杂的块。
附图有助于容易地理解各种技术特征,并且应理解,本文呈现的实施例不受附图的限制。因此,本公开应被解释为扩展到除了在附图中具体阐述的那些之外的任何改变、等同物和替换物。尽管本文可使用术语第一、第二等来描述各种元件,但这些元件不应受这些术语的限制。这些术语通常仅用于将一个元件与另一元件区分开。
因此,本文的实施例公开了一种用于从电子装置检索智能信息的方法和设备。所述方法包括由电子装置从用户接收直接输入或间接输入。此外,所述方法包括由电子装置识别至少一个数据项以生成至少一个元数据标签。此外,所述方法包括由电子装置基于多个参数自动生成与至少一个数据项相关的至少一个元数据标签。此外,所述方法包括由电子装置为至少一个元数据标签提供至少一个优先级。此外,所述方法包括由电子装置在电子装置处存储至少一个元数据标签。
现在参照附图,并且更具体地参照图2至图15,示出了优选实施例。
图2示出根据如本文公开的实施例的用于检索智能信息的电子装置(100)的框图。电子装置(100)可以是例如但不限于智能电话、膝上型计算机、桌上型计算机、智能手表、智能电视等。在实施例中,电子装置(100)包括处理器(120)、存储器(130)、显示器(140)和通信器(150)。
处理器(120)与存储器(130)、显示器(140)和通信器(150)进行通信。处理器(120)被配置为执行存储在存储器(130)中的指令并执行各种处理。
在实施例中,处理器(120)被配置为从用户接收输入(例如,通过手势、触摸屏、语音通信)。此外,处理器(120)被配置为识别至少一个数据项(例如,图像文件、视频文件、音频文件和文本文档)以生成至少一个元数据标签(例如,智能摘要器)。此外,处理器(120)被配置为基于多个参数自动生成与至少一个数据项相关的至少一个元数据标签。其中,多个参数使用认知图。此外,处理器(120)被配置为为至少一个元数据标签提供至少一个优先级。此外,处理器(120)被配置为在电子装置(100)处存储至少一个元数据标签。
在实施例中,处理器(120)被配置为接收至少一个候选元数据标签(例如,由用户输入的标签)。此外,处理器(120)被配置为将至少一个候选元数据标签与存储的至少一个元数据标签进行比较。此外,处理器(120)被配置为响应于确定至少一个候选元数据标签与存储的至少一个元数据标签之间匹配,检索与至少一个候选元数据标签相应的至少一个数据项。此外,处理器(120)被配置为使用检索到的至少一个数据项来执行至少一个动作(例如,与至少一个第二用户共享至少一个数据项,将至少一个数据项存储在电子装置(100)中)。
在实施例中,基于与至少一个候选元数据标签相关联的优先级来检索至少一个数据项。
在实施例中,处理器(120)被配置为识别数据项中可用的图像块、文本块和音频块中的至少一个。此外,处理器(120)被配置为确定与图像块、文本块和音频块中的至少一个相关联的多个参数。此外,处理器(120)被配置为基于多个参数生成与至少一个数据项相关的至少一个元数据标签。
在实施例中,图像块的多个参数包括以下项中的至少一项:场景对象块(例如,沙滩、花、计算机)、表情块(例如,滑稽、生气、惊讶)、面部块(例如,用户的面部识别)和活动块(例如,跑步、跳舞、睡觉、唱歌、游泳)。
在实施例中,文本块的多个参数包括以下项中的至少一项:关键词块(例如,首尔、斯塔克、7$)、语言识别块(例如,西班牙语、印地语、韩语)、分类块、文本摘要块(例如,抽象的、提炼的)和电子装置内容聚合器块(例如,日历信息、天气信息、位置信息、应用类别信息、应用元数据)。
在实施例中,多个音频块包括音频摘要和语言识别(例如西班牙语、印地语、韩语)中的至少一个。电子装置(100)在不与任何网络装置交互的情况下在本地生成至少一个元数据标签。至少一个元数据标签能够由用户自定义。
在实施例中,处理器(120)包括输入识别器(121)、数据项分析引擎(122)和元数据标签生成器(123)。
输入识别器(121)从用户接收输入。数据项分析引擎(122)识别至少一个数据项(例如,图像、文本、音频中的至少一个)以生成至少一个元数据标签。元数据标签生成器(123)基于多个参数自动生成与至少一个数据项相关的至少一个元数据标签。此外,元数据标签生成器(123)包括图像处理引擎(123a)、文本定位器(123b)、脚本识别器(123c)、光学识别器(123d)、语言检测器(123e)、关键词提取引擎(123f)、关键词扩展引擎(123g)、认知图(123h)和语音引擎(123i)。
图像处理引擎(123a)对图像执行双边滤波处理。此外,图像处理引擎(123a)将双边图像转换为灰度图像。此外,图像处理引擎(123a)对灰度图像执行自定义二值化。此外,图像处理引擎(123a)从图像中提取特征以生成特征标签。文本定位器(123b)确定灰度图像中的文本区域/块。脚本识别器(123c)识别灰度图像的所确定的文本区域的脚本。
基于深度神经网络的光学识别器(123d)识别文本区域并从图像中提取文本。此外,语言检测器(123e)识别每个脚本的文本的语言并存储识别出的语言。关键词提取引擎(123f)在实况流水线中从光学识别器(123d)接收提取的文本,从语言检测器(123e)接收语言细节,并加载语言特定神经模型以提取文本的最重要部分。关键词扩展引擎(123g)在当前文本中添加新关键词,其中,新关键词与文本高度相关、同义或强相关。认知图(123h)基于用户个性化摘要来确定文本的每个关键词的排序。语音引擎(123i)将传入的语音信号转换为文本并馈送到实况流水线以在电子装置(100)上生成元数据标签。
存储器(130)还存储将由处理器(120)执行的指令。存储器(130)可包括非易失性存储元件。这种非易失性存储元件的示例可包括磁性硬盘、光盘、软盘、闪存、或者电可编程存储器(EPROM)或电可擦除可编程(EEPROM)存储器的形式。此外,在一些示例中,存储器(130)可被认为是非暂时性存储介质。术语“非暂时性”可指示存储介质不以载波或传播信号被实现。然而,术语“非暂时性”不应被解释为存储器(130)是不可移动的。在一些示例中,存储器(130)可被配置为存储比存储器更大量的信息。在特定示例中,非暂时性存储介质可(例如,在随机存取存储器(RAM)或高速缓冲存储器中)存储可随时间改变的数据。在实施例中,存储器(130)可以是内部存储单元,或者它可以是电子装置(100)的外部存储单元、云存储器或任何其他类型的外部存储器。
存储器(130)包括应用储存库(130a),以存储不同候选应用(例如,呼叫应用、图库应用、相机应用、商业应用、教育应用、生活方式应用、娱乐应用、工具应用、旅行应用、健康和健身应用)的元数据标签。
通信器(150)被配置为经由一个或更多个网络在内部硬件组件之间进行内部通信并与外部装置进行通信。
尽管图2示出电子装置(100)的各种硬件组件,但将理解,其他实施例不限于此。在其他实施例中,电子装置(100)可包括更少或更多数量的组件。此外,组件的标签或名称仅用于说明目的,并且不限制本发明的范围。可将一个或更多个组件组合在一起以执行与智能地检索信息相同或基本相似的功能。
图3A和图3B是示出根据如本文公开的实施例的在电子装置(100)中生成元数据标签的方法的流程图。由电子装置(100)执行操作(302-324)。
符号“a”指示,在302,该方法包括识别显示器(140)上的至少一个图像。在304,该方法包含对图像执行双边滤波处理。双边滤波处理用于边缘保持平滑。在306,该方法包括将双边图像转换为灰度图像。在308,该方法包括对灰度图像执行自定义二值化。在符号“b”中给出了自定义二值化的详细描述。在310,该方法包括由文本定位器(123b)使用Canny边缘检测来执行文本定位(即,在装置上的文本定位/未与外部网络连接)。Canny边缘检测用于测量灰度图像中文本区域/块周围存在的水平轴和垂直轴的边缘。在312,该方法包括由基于DNN的脚本识别器(123c)进行的脚本识别(即,在装置上的脚本识别/未与外部网络连接),将文本块作为输入并识别文本的脚本(例如,“拉丁语”、“西里尔语”、“中文”、“日语”、“韩语”、“阿育王语”)。
在314,光学识别器(123d)的光学字符识别(OCR)将自定义二值化输出和脚本识别输出作为输入。光学识别器(123d)是脚本相关的。因此,脚本识别被最优地加载到光学识别器(123d)中以在电子装置(100)上进行解决方案。此外,脚本识别加载用于光学字符识别的神经模型的必要脚本资源。光学识别器(123d)识别文本区域并将文本与由不同类型的字符组成的数据库进行比较,并使用DNN从图像中提取文本。在316,该方法包括由基于DNN的语言检测器(123e)(即,在装置上的语言检测器/不与外部网络连接)自动识别语言。此外,识别出的语言被存储在语言检测器(123e)中。对于每个脚本,存在多种语言(例如,拉丁语具有超过40种语言,阿育王语具有超过15种语言)。加载所有语言会导致存储器问题。为了克服存储器问题,所提出的系统使用语言检测器(123e)以在电子装置(100)中动态地添加语言。
在318,关键词提取引擎(123f)将语言检测器(123e)输出和光学识别器(123d)输出作为输入。关键词提取引擎(123f)是语言相关的,每种语言具有其自己的语法集,因此检测语言对于正确地识别关键词是重要的。关键词提取引擎(123f)分析文本并从该文本提取最重要的文本。这有助于总结文本的内容并识别主要主题。
在304a至306a,由图像处理引擎(123a)进行的特征提取使用类似DNN的卷积神经网络(CNN)架构来从显示器(140)上的至少一个图像提取特征,并基于提取的特征生成标签。
在320,关键词扩展引擎(123g)模块将提取的特征标签输出和关键词提取引擎(123f)输出作为输入。关键词扩展引擎(123g)是语言相关的。关键词扩展引擎(123g)在当前文本中添加新关键词,其中,新关键词与文本中的文本高度相关、同义或强相关。在322至324,通过认知图(123)排序,基于用户个性化摘要来决定文本的每个关键词的排序。
在实施例中,符号“b”指示自定义二值化。在308a,该方法包括在灰度图像上使用canny边缘来检测边缘。在308b,该方法包括通过使用检测到的边缘来识别轮廓。根据这些轮廓,评估连通分量。在308c,该方法包括决定是否必须进一步进行轮廓处理。在308da至308fa,该方法包括对轮廓进行处理以成功地添加到处理列表中。在308db至308eb,该方法包括计算所有邻近点的强度,并且因此做出将该像素转换为白或黑的决定。为了优化,在四个不同的线程中完成处理,这加速了对自定义二值化的处理。
图4A、图4B、图4C和图4D是根据如本文公开的实施例的在电子装置(100)中生成元数据标签的方法的示例图示。已经在图3A和图3B中解释了技术功能。
电子装置(100)的用户在搜索浏览器中搜索“男士服装”,并拍摄显示的网页的屏幕截图。屏幕截图可触发对用户的视觉提示以发起标签提取,或者可直接触发标签提取。该方法识别显示器(140)上的男士服装的图像,并在304-308执行各种图像处理操作。在310,该方法检测显示的项的文本区域。在312,该方法用于基于检测到的文本来识别脚本。在314,该方法识别文本区域,诸如“搜索”、“男士服装”、“最新”、“GIF”、“HD”、“产品”、“婚礼”、“休闲”、“派对”、“正式”、“男式西装时尚”、“amz.com”、“hx.com”、“go.com”、“good.com”。在316,该方法用于基于文本区域识别语言。在示例中,识别出的语言是英语。
在318,如符号“1”,该方法分析文本区域并提取最重要的文本,诸如“搜索”、“男士服装”、“婚礼”、“休闲”、“派对”、“正式”、“男士”、“西装”、“时尚”、“amz.com”、“hx.com”、“go.com”、“good.com”。
在304a至306a,该方法提取显示的项的特征并生成标签,如符号“2”,诸如“屏幕截图”、“网页”、“服装”、“图案”。在320,该方法添加新关键词,诸如“衣服”、“外套”、“衬衫”、“戒指”、“结婚”、“庆祝”、“聚会”、“有趣”、“截屏”、“设计”。在322,该方法基于用户个性化摘要对每个关键词进行排序。符号“3”示出了基于搜索浏览器的显示的项生成的最终文本输出/标签。
图5是示出根据如本文公开的实施例的用于从电子装置(100)检索智能信息的方法的流程图(500)。由电子装置(100)执行操作(502至518a)。
在502,该方法包括从用户接收输入。在504,该方法包括识别至少一个数据项以生成至少一个元数据标签。在506,该方法包括基于多个参数自动生成与至少一个数据项相关的至少一个元数据标签。在508,该方法包括向至少一个元数据标签提供至少一个优先级。在510,该方法包括将至少一个元数据标签存储在电子装置(100)处。在512至514,该方法包括将至少一个候选元数据标签与存储的至少一个元数据标签进行比较。在516b,该方法包括当至少一个候选元数据标签与存储的至少一个元数据标签不匹配时不执行动作。在516a,该方法包括当至少一个候选元数据标签与存储的至少一个元数据标签匹配时,检索与至少一个候选元数据标签相应的至少一个数据项。在518a,该方法包括使用检索到的至少一个数据项来执行至少一个动作。
图6A、图6B和图6C是根据如本文公开的实施例的使用电子装置(100)的虚拟助理的智能元数据标签和文本内容摘要来检索智能信息的示例图示。
符号“a”指示虚拟助理分析电子装置(100)的屏幕(即,显示器(140))内容。在示例中,屏幕内容与板球新闻有关。符号“b”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如话题标签、突出显示卡),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#CSK”、“#SRH”、“#IPL”、“#Chepauk”和“#M Pandey”。此外,突出显示卡是“M Pandey谈论比赛”和“来自Chepauk的实况”。生成的话题标签可由电子装置(100)的用户以扩展模式编辑(例如,添加更多话题标签),并且突出显示卡向电子装置(100)的用户给出屏幕内容的详细摘要。此外,电子装置(100)存储由用户选择/创建的话题标签和突出显示卡中的全部或至少一个。
符号“c”指示虚拟助理接收至少一个候选元数据标签。在示例中,候选元数据标签是“#IPL”。然后,虚拟助理将候选元数据标签与存储的元数据标签进行比较,并检索与至少一个候选元数据标签相应的至少一个数据项(例如,来自电子装置(100)的图像、屏幕截图)。
图7A、图7B、图7C和图7D是根据如本文公开的实施例的为电子装置(100)的浏览器应用生成的智能元数据标签和摘要的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入(例如,手势、滑动)。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容与“印度vs澳大利亚”相关。符号“b”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如话题标签、突出显示卡),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#板球”、“#印度”、“#澳大利亚”、“#系列比赛”和“#VirKohli”。此外,突出显示卡是“在澳大利亚土地上的胜利”和“特别对投球手”。生成的话题标签和突出显示卡具有扩展模式(即,通过按压“更多”按钮)。
符号“c”指示电子装置(100)的用户在电子装置(100)中执行编辑生成的话题标签/添加新的话题标签/保存话题标签中的至少一个操作。此外,电子装置(100)的用户与至少一个第二用户共享话题标签。符号“d”指示突出显示卡向电子装置(100)的用户给出屏幕内容的详细摘要。此外,电子装置(100)将突出显示卡存储在电子装置(100)中。此外,电子装置(100)的用户与至少一个第二用户共享突出显示卡。
图8A、图8B和图8C是根据如本文公开的实施例的基于图像特征生成元数据标签的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容是图像。符号“b”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#海滩”、“#沙滩”、“#天空”、“#藏原羚”、“#傍晚”、“#人”、“#马”、“#影子”、“#云”和“#水”。生成的话题标签具有扩展模式(即,通过按压“更多”按钮)。
符号“c”指示电子装置(100)的用户在电子装置(100)中执行编辑生成的话题标签/添加新的话题标签/保存话题标签中的至少一个操作。此外,电子装置(100)的用户与至少一个第二用户共享话题标签。
图9A、图9B和图9C是根据如本文公开的实施例的生成用于电子装置(100)的乘车服务应用的元数据标签的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容与乘车服务信息相关。符号“b”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#HSBC,Bannerghatta主路”、“#Royal Meenakshi商场”、“#i20”、“#KA03CF9XXX”、“#Jack先生”、“#总费用70”和“#TTL1天”。生成的话题标签具有扩展模式(即,通过按下“更多”按钮)。TTL1天是存活一天的时间,可由电子装置(100)的用户修改TTL1天标签。此外,TTL时间是屏幕截图在电子装置(100)上可用的时间,之后屏幕截图被自动删除,这有助于保持图库有组织且摆脱杂乱。
符号“c”指示电子装置(100)的用户在电子装置(100)中执行编辑生成的话题标签/添加新的话题标签/保存话题标签中的至少一个操作。此外,电子装置(100)的用户与至少一个第二用户共享话题标签。
图10A至图10F是根据如本文公开的实施例的学习智能摘要器的智能属性以生成用于电子装置(100)的浏览器应用的元数据标签的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容与家具图像相关。符号“b”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#家具”、“#房间”、“#沙发”、“#桌子”、“#椅子”、“#pfy.com”、“#amz.com”、“#go.com”和“#good.com”。可由电子装置(100)的用户以扩展模式编辑生成的话题标签。此外,电子装置(100)将话题标签存储在电子装置(100)中。
符号“c”指示从电子装置(100)的用户接收输入(例如,缩放)。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容与特定的一个图像相关。符号“d”指示电子装置(100)自动生成与屏幕内容相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#房间”、“#沙发”、“#桌子”、“#灯”、“#窗户”、“#“枕头”、“#amz.com”和“#缩放”。可由电子装置(100)的用户以扩展模式编辑生成的话题标签。此外,电子装置(100)将话题标签存储在电子装置(100)中。
符号“e”指示电子装置(100)接收至少一个候选元数据标签。在示例中,候选元数据标签是“#沙发”。然后,电子装置(100)将候选元数据标签与存储的元数据标签进行比较,并检索与至少一个候选元数据标签相应的至少一个数据项(即,家具图像)。
符号“f”指示电子装置(100)接收至少一个候选元数据标签。在示例中,候选元数据标签是“#沙发”和“#缩放”。然后,电子装置(100)将候选元数据标签与存储的元数据标签进行比较,并检索与至少一个候选元数据标签相应的至少一个数据项(即,特定的一个图像和家具图像)。
图11A、图11B、图11C和图11D是根据如本文公开的实施例的生成为呼入呼叫创建的元数据标签的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析来自未知号码的呼入语音呼叫的语音内容。符号“b”指示电子装置(100)自动生成与呼入语音呼叫会话相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#3bhk”、“#房间”、“#Krishna”、“#jp Nagar”和“#提醒”。可由电子装置(100)的用户以扩展模式编辑生成的话题标签。此外,电子装置(100)存储话题标签。
符号“c至d”指示电子装置(100)接收至少一个候选元数据标签。在示例中,候选元数据标签是“#3bhk”。然后,电子装置(100)将候选元数据标签与存储的元数据标签进行比较,并检索与至少一个候选元数据标签相应的至少一个数据项(例如,移动电话号码)。
图12A、图12B、图12C和图12D是根据如本文公开的实施例的基于用于电子装置(100)的消息应用的对话摘要生成的智能摘要器的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析电子装置(100)的屏幕内容。在示例中,屏幕内容与来自Jack先生(即,第二用户)的呼入语音呼叫相关。符号“b”指示电子装置(100)自动生成与呼入语音呼叫会话相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#abc站”、“#机场”、“#上午07:30”和“#护照”。可由电子装置(100)的用户以扩展模式编辑生成的话题标签。此外,电子装置(100)存储话题标签。
符号“c至d”指示电子装置(100)的用户与Jack先生之间的消息会话。消息会话与呼入语音呼叫相关。当电子装置(100)的用户键入“通过电话讨论”时,电子装置(100)自动检索生成的具有可操作特征(例如,预订出租车、设置闹钟)的话题标签并与Jack先生共享。
图13A、图13B、图13C和图13D是根据如本文公开的实施例的生成用于电子装置(100)的录音机应用的元数据标签的另一示例图示。
符号“a”指示电子装置(100)从电子装置(100)的用户接收输入。然后,电子装置(100)分析与语音记录相关的语音内容。符号“b”指示电子装置(100)自动生成与语音记录相关的至少一个元数据标签(例如,话题标签),并且至少一个元数据标签基于电子装置(100)的用户的优先级提供。在示例中,话题标签是“#6月20日”、“#上午9点会议”、“#7号房间”、“#Tj酒店”和“#星期六早晨”。可由电子装置(100)的用户以扩展模式编辑生成的话题标签。此外,电子装置(100)存储话题标签。
符号“c至d”指示电子装置(100)接收至少一个候选元数据标签。在示例中,候选元数据标签是“#Tj酒店”。然后,电子装置(100)将候选元数据标签与存储的元数据标签进行比较,并检索与至少一个候选元数据标签相应的至少一个数据项(即,语音002)。
图14A、图14B和图14C是根据如本文公开的实施例的为电子装置(100)的消息应用生成的智能编写的另一示例图示。
符号“a”指示电子装置(100)的用户与Jack先生之间的消息会话。消息会话与午餐聚会相关。符号“b至c”指示当电子装置(100)的用户键入“#Jack先生”时,电子装置(100)自动检索与Jack先生相关的建议(例如,图片、文档、视频和消息)。电子装置(100)的用户选择建议中的至少一个建议并与Jack先生共享。其中,建议基于多个添加的元数据标签而保持参考。
图15A和图15B是根据如本文公开的实施例的基于接收到的用于电子装置(100)的消息应用的统一资源定位符(URL)生成的智能回复、智能共享和智能编写的另一示例图示。
符号“a”指示电子装置(100)的用户与Jack先生之间的消息会话。电子装置(100)的用户从Jack先生接收URL。电子装置(100)总结URL内容并在键入“#”时提供摘要句子建议。符号“b”指示电子装置(100)提供共享URL的智能建议。
在实施例中,图8A?图15B中给出的元数据标签生成的示例也可被扩展用于标签摘要。
本文公开的实施例可使用运行在至少一个硬件装置上并执行网络管理功能来控制元件的至少一个软件程序来实现。
具体实施例的前述描述将如此充分地揭示本文的实施例的一般性质,使得其他人可通过应用当前认知在不脱离一般概念的情况下容易地修改和/或调整这些具体实施例的各种应用,并且因此,这些调整和修改应该并且旨在在所公开的实施例的等同物的含义和范围内被理解。将理解,本文采用的措辞或术语是为了描述而不是限制的目的。因此,尽管已经根据优选实施例描述了本文的实施例,但本领域技术人员将认识到,可在如本文所述的实施例的精神和范围内通过修改来实践本文的实施例。
Claims (15)
1.一种用于从电子装置(100)检索智能信息的方法,包括:
由电子装置(100)从用户接收输入;
由电子装置(100)识别至少一个数据项以生成至少一个元数据标签;
由电子装置(100)基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签;
由电子装置(100)为所述至少一个元数据标签提供至少一个优先级;并且
由电子装置(100)将所述至少一个元数据标签存储在电子装置(100)处。
2.如权利要求1所述的方法,还包括:
由电子装置(100)接收至少一个候选元数据标签;
由电子装置(100)将所述至少一个候选元数据标签与存储的所述至少一个元数据标签进行比较;
响应于确定所述至少一个候选元数据标签与存储的所述至少一个元数据标签之间匹配,由电子装置(100)检索与所述至少一个候选元数据标签相应的至少一个数据项;并且
由电子装置(100)使用检索到的所述至少一个数据项来执行至少一个动作。
3.如权利要求2所述的方法,其中,所述至少一个数据项是基于与所述至少一个候选元数据标签相关联的所述优先级被检索出的。
4.如权利要求1所述的方法,其中,由电子装置(100)基于所述多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签的步骤包括:
由电子装置(100)识别所述数据项中可用的图像块、文本块和音频块中的至少一个;
由电子装置(100)确定与图像块、文本块和音频块中的所述至少一个相关联的所述多个参数;并且
由电子装置(100)基于所述多个参数生成与所述至少一个数据项相关的所述至少一个元数据标签。
5.如权利要求4所述的方法,其中,图像块的多个参数包括场景对象块、表情块、面部块和活动块中的至少一个,
其中,文本块的多个参数包括关键词块、语言识别块、分类块、文本摘要块和电子装置(100)内容聚合器块中的至少一个,并且
其中,音频块的多个参数包括音频摘要和语言识别中的至少一个。
6.如权利要求1所述的方法,其中,电子装置(100)在不与任何网络装置交互的情况下在本地生成所述至少一个元数据标签。
7.如权利要求1所述的方法,其中,所述至少一个元数据标签能够由用户自定义。
8.如权利要求1所述的方法,其中,所述至少一个数据项包括图像文件、视频文件、音频文件和文本文档。
9.一种用于检索智能信息的电子装置(100),包括:
存储器(130);以及
处理器(120),可操作地连接到存储器(130),其中,处理器(120)被配置为进行以下操作:
从用户接收输入;
识别至少一个数据项以生成至少一个元数据标签;
基于多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签;
为所述至少一个元数据标签提供至少一个优先级;并且
将所述至少一个元数据标签存储在电子装置(100)处。
10.如权利要求9所述的电子装置(100),还包括:
由电子装置(100)接收至少一个候选元数据标签;
由电子装置(100)将所述至少一个候选元数据标签与存储的所述至少一个元数据标签进行比较;
响应于确定所述至少一个候选元数据标签与存储的所述至少一个元数据标签之间匹配,由电子装置(100)检索与所述至少一个候选元数据标签相应的至少一个数据项;并且
由电子装置(100)使用检索到的所述至少一个数据项来执行至少一个动作。
11.如权利要求10所述的电子装置(100),其中,所述至少一个数据项是基于与所述至少一个候选元数据标签相关联的所述优先级被检索出的。
12.如权利要求9所述的电子装置(100),其中,由电子装置(100)基于所述多个参数自动生成与所述至少一个数据项相关的所述至少一个元数据标签的操作包括:
由电子装置(100)识别所述数据项中可用的图像块、文本块和音频块中的至少一个;
由电子装置(100)确定与图像块、文本块和音频块中的所述至少一个相关联的所述多个参数;并且
由电子装置(100)基于所述多个参数生成与所述至少一个数据项相关的所述至少一个元数据标签。
13.如权利要求12所述的电子装置(100),其中,图像块的多个参数包括场景对象块、表情块、面部块和活动块中的至少一个,
其中,文本块的多个参数包括关键词块、语言识别块、分类块、文本摘要块和电子装置(100)内容聚合器块中的至少一个,并且
其中,音频块的多个参数包括音频摘要和语言识别中的至少一个。
14.如权利要求9所述的电子装置(100),其中,电子装置(100)在不与任何网络装置交互的情况下在本地生成所述至少一个元数据标签。
15.如权利要求9所述的电子装置(100),其中,所述至少一个元数据标签能够由用户自定义,并且
其中,所述至少一个数据项包括图像文件、视频文件、音频文件和文本文档。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201941000486 | 2019-01-04 | ||
IN201941000486 | 2019-12-23 | ||
PCT/KR2020/000210 WO2020141961A1 (en) | 2019-01-04 | 2020-01-06 | Method and apparatus for retrieving intelligent information from electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113272803A true CN113272803A (zh) | 2021-08-17 |
Family
ID=71407463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080007849.5A Pending CN113272803A (zh) | 2019-01-04 | 2020-01-06 | 从电子装置检索智能信息的方法和设备 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3871116A4 (zh) |
CN (1) | CN113272803A (zh) |
WO (1) | WO2020141961A1 (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8055688B2 (en) * | 2007-12-07 | 2011-11-08 | Patrick Giblin | Method and system for meta-tagging media content and distribution |
US20100146009A1 (en) | 2008-12-05 | 2010-06-10 | Concert Technology | Method of DJ commentary analysis for indexing and search |
US8433136B2 (en) * | 2009-03-31 | 2013-04-30 | Microsoft Corporation | Tagging video using character recognition and propagation |
US8768693B2 (en) * | 2012-05-31 | 2014-07-01 | Yahoo! Inc. | Automatic tag extraction from audio annotated photos |
US10223454B2 (en) * | 2013-05-01 | 2019-03-05 | Cloudsight, Inc. | Image directed search |
US9058375B2 (en) * | 2013-10-09 | 2015-06-16 | Smart Screen Networks, Inc. | Systems and methods for adding descriptive metadata to digital content |
US10096342B2 (en) * | 2015-04-30 | 2018-10-09 | Rodica Schileru | Method and sytem for segmenting videos |
US9524469B1 (en) | 2015-12-14 | 2016-12-20 | MetroStar Systems, Inc. | Systems, apparatus, and methods for generating prediction sets based on a known set of features |
EP3267368B1 (en) * | 2016-07-06 | 2020-06-03 | Accenture Global Solutions Limited | Machine learning image processing |
-
2020
- 2020-01-06 CN CN202080007849.5A patent/CN113272803A/zh active Pending
- 2020-01-06 EP EP20735982.9A patent/EP3871116A4/en active Pending
- 2020-01-06 WO PCT/KR2020/000210 patent/WO2020141961A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
EP3871116A1 (en) | 2021-09-01 |
US20220100789A1 (en) | 2022-03-31 |
WO2020141961A1 (en) | 2020-07-09 |
EP3871116A4 (en) | 2021-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885100B2 (en) | Thumbnail-based image sharing method and terminal | |
CN109117777B (zh) | 生成信息的方法和装置 | |
CN101620680B (zh) | 字符图像的识别和翻译方法以及装置 | |
US9430719B2 (en) | System and method for providing objectified image renderings using recognition information from images | |
CN108121816B (zh) | 图片分类方法、装置、存储介质及电子设备 | |
US8649572B2 (en) | System and method for enabling the use of captured images through recognition | |
US7809722B2 (en) | System and method for enabling search and retrieval from image files based on recognized information | |
CN111465918B (zh) | 在预览界面中显示业务信息的方法及电子设备 | |
US20210240757A1 (en) | Automatic Detection and Transfer of Relevant Image Data to Content Collections | |
KR20140059834A (ko) | 콘텍스트 정보를 이용한 모바일 디바이스 상에서의 광학적 문자 인식 | |
US20210209289A1 (en) | Method and apparatus for generating customized content based on user intent | |
US10152540B2 (en) | Linking thumbnail of image to web page | |
US11995747B2 (en) | Method for generating identification pattern and terminal device | |
KR102373884B1 (ko) | 텍스트 기반 이미지 검색을 위한 이미지 데이터 처리 방법 | |
KR101552525B1 (ko) | 폰트를 인식하고 폰트정보를 제공하는 시스템 및 그 방법 | |
CN109241299B (zh) | 多媒体资源搜索方法、装置、存储介质及设备 | |
CN104572717A (zh) | 信息搜索方法和装置 | |
US20160104052A1 (en) | Text-based thumbnail generation | |
CN107423441B (zh) | 一种图片关联方法及其装置、电子设备 | |
KR20210120203A (ko) | 웹 페이지에 기반한 메타데이터 생성방법 | |
CN113272803A (zh) | 从电子装置检索智能信息的方法和设备 | |
CN115860829A (zh) | 一种智能广告图像生成方法及装置 | |
US20190197346A1 (en) | Methods and systems for applying content aware stickers onto a layout | |
US12032621B2 (en) | Method and apparatus for retrieving intelligent information from electronic device | |
CN111582281B (zh) | 一种图片显示优化的方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |