CN103959227A - 生活记录和存储共享 - Google Patents

生活记录和存储共享 Download PDF

Info

Publication number
CN103959227A
CN103959227A CN201180072782.4A CN201180072782A CN103959227A CN 103959227 A CN103959227 A CN 103959227A CN 201180072782 A CN201180072782 A CN 201180072782A CN 103959227 A CN103959227 A CN 103959227A
Authority
CN
China
Prior art keywords
bin
storage object
user
emotional state
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201180072782.4A
Other languages
English (en)
Inventor
程以宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN103959227A publication Critical patent/CN103959227A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurosurgery (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biophysics (AREA)
  • Social Psychology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

在本发明的第一实施例中,提供一种用于电子装置上创建存储对象的方法,包括:使用电子装置捕捉面元;在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息;基于记录的传感器信息来确定用户的情绪状态;将面元和确定的情绪状态一起存储为存储对象。

Description

生活记录和存储共享
技术领域
本发明总体上涉及消费电子装置。更具体地,本发明涉及记录内容和共享存储。
背景技术
至少从发明相机以后,使用记录装置来捕捉生活回忆(例如,婚礼、毕业、假期等)已经成为流行的消遣方式。在二十世纪中期,使用家用摄影机(其后发展到模拟摄像机,然后发展到数码摄像机)来捕捉这种回忆变得流行。最近,用户可用来捕捉这种生活回忆的装置的数量急剧增加。移动装置,尤其是移动电话的形式,对于很多人已经变成了流行的交流模式。随着这些装置已经变得更强大,这些装置的处理能力和存储能力已经允许它们变得比电话更接近计算机。虽然很多其它用户除了智能电话以外仍然使用老式装置或者使用老式装置而非智能电话,但将相机(视频和静止两种)添加到移动装置已经允许它们在用户的生活中取代独立的摄像机和照相机。近年来平板装置也已经获得流行,并且与智能电话一样(如果没有更多的话)能够被用于捕捉生活回忆。因此,单个用户具有一系列不同的可由他/她容易地任意支配使用的装置以在生活回忆发生时捕捉生活回忆并不少见。
这些装置中的每一个最初将捕捉的信息存储在装置本身的存储器(例如,智能电话中的闪存)中。然后,用户能将这些装置与更集中的装置(诸如,家用计算机)同步,其中,捕捉的内容可与从其它装置捕捉的内容结合。然而,用户可具有多个这样的计算机,并且跟踪捕捉的内容所在的位置可能很困难。
甚至最近已经提出了基于云的解决方案,其中,用户可经由互联网将捕捉的内容上传到网站或其它存储机制。然而,由于一个用户可以同时是多个不同的云服务的成员,因此这些位置可以是分散的。例如,用户可能将图片上传到FacebookTM页、FlickrTM账户或MobileMeTM服务。因此,所述内容仍然被分散在不同的位置。
此外,对于用户而言,整理大量的捕捉的内容组会是困难的。通常,例如,按时间顺序来存储照片。虽然当用户的回忆被链接到特定事件时,这使得事情更容易,但是当用户以非时间顺序的方式想起时会引起麻烦。如果用户想要追忆,例如,关于他们去年夏天进行的旅行,那么以时间顺序排列会是有帮助的,但是用户可能希望没那么严格地追忆,而是可能想要回忆在他们一生中去意大利的全部次数。包括在去年夏天去意大利的旅行中拍摄的法国和英国的图片将不属于仅应该包括在他们一生中去意大利的不同的十次的图片的分组。这些图片如何被存储的分散性使得难以进行这种“基于故事”的分组。
此外,到目前为止,仅讨论了单个用户的示例。但很多不同的人捕捉这样的生活事件,而且这种生活事件会以直接方式(例如,一起去旅行的两个不同的人)或间接方式(例如,在某个时间点在意大利旅行中偶遇的两个不同的人)重叠。尽管分散在多个存储位置和多个用户中,但是会存在能够有利于链接这样的生活回忆内容的情况。这会培养可帮助增强社会关系的“小组追忆”。
需要一种解决所有这些问题的方案。
发明内容
技术问题
因此,本发明在于提供一种用于创建能够实现生活记录和存储共享的存储对象的方法和装置。
解决方案
在本发明的第一实施例中,提供一种用于在电子装置上创建存储对象的方法,包括:使用电子装置捕捉面元;在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息;基于记录的传感器信息来确定用户的情绪状态;将面元和确定的情绪状态一起存储为存储对象。
在本发明的第二实施例中,提供一种装置,包括:处理器;存储器;一个或更多个传感器,被设计为记录与用户的情绪状态有关的传感器信息;面元捕捉装置,其中,面元捕捉装置被设计为捕捉面元;其中,处理器被配置为基于记录的传感器信息确定用户的情绪状态,并将面元与确定的情绪状态一起作为存储对象存储在存储器中。
在本发明的第三实施例中,提供一种电子装置,包括:用于使用电子装置捕捉面元的部件;用于在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息的部件;用于基于记录的传感器信息来确定用户的情绪状态的部件;用于将面元和确定的情绪状态一起存储为存储对象的部件;用于获得针对作为面元的主体的物理对象的唯一标识符的部件;用于将唯一标识符附属于存储对象的部件;用于将存储对象链接到具有相似的附属的唯一标识符的其它存储对象的部件。
在本发明的第四实施例中,提供一种机器可读的非暂时性程序存储装置,所述非暂时性程序存储装置具体实施可由机器执行的指令的程序以执行用于在电子装置上创建存储对象的方法,所述方法包括:使用电子装置捕捉面元;在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息;基于记录的传感器信息来确定用户的情绪状态;将面元和确定的情绪状态一起存储为存储对象;将所述存储对象链接到其它存储对象。
有益效果
因此,本发明的实施例提供能够实现生活记录和存储共享的有益效果。
附图说明
图1是示出根据本发明的实施例的多个用户之间的共享存储的容易组成的流程图;
图2是示出根据本发明的实施例的系统的框图;
图3是示出根据本发明的实施例的用于在电子装置上创建存储对象的方法的流程图;
图4是示出根据本发明的一个实施例的用于将存储对象与物理对象关联的方法的流程图;
图5是示出根据本发明的实施例的用于使用与物理对象关联的存储对象的方法的流程图;
图6是示出根据本发明的实施例的用于促进分组归属感的方法的流程图;
图7是示出根据本发明的实施例的用于将存储对象链接到物理对象和所述物理对象的其它存储对象的方法的流程图;
图8是示出根据本发明的实施例的用于推荐存储对象的方法的流程图;
图9是示出根据本发明的另一实施例的用于在电子装置上创建存储对象的方法的流程图。
具体实施方式
现在将详细地参照本发明的特定实施例,其中,本发明包括由发明人为了完成本发明而深思熟虑的最佳模式。这些特定实施例的示例在附图中被示出。虽然结合这些特定实施例描述了本发明,但是将理解,并不意图将本发明限制在描述的实施例。相反地,意图涵盖可被包括在由权利要求所限定的本发明的精神和范围内的可选方案、修改和等同物。在以下的描述中,阐述特定细节以提供本发明的彻底理解。本发明可在没有一些或全部那些特定细节的情况下被实施。此外,公知特征可能没有详细地描述以避免不必要地模糊本发明。
根据本发明,组件、处理步骤和/或数据结构可使用各种类型的操作系统、程序语言、计算平台、计算机程序和/或通用机器来实现。此外,本领域普通技术人员将认识到:在不脱离在此公开的本发明构思的范围和精神的情况下,也可使用较低通用性的装置(诸如,硬件装置、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等)。本发明还可以具体实施为存储在计算机可读介质(诸如,存储装置)上的一组计算机指令。
为了本文档,由装置捕捉的内容可被叫做“面元(facet)”。示例面元包括静止图片、视频、录音、文本消息等。
在本文档中,呈现与不同方式有关的各种实施例,面元可被放大并容易地在装置与用户之间共享。
在本发明的实施例中,除了面元之外,情绪和情感被捕捉。以这种方式,生活回忆的情绪与包括生活回忆本身的面元一起被捕捉。例如,如果在生日时拍照,则可跟踪一种类型的情绪,而在蜜月旅行时,可跟踪另一种类型的情绪。当捕捉面元时,可自动或半自动地执行情绪/情感跟踪。
此外,可使用关于情绪/情感的信息自动或半自动地编写“故事(具有组织结构的面元组)”。这可与将具有相似情绪/情感的面元组合在一起一样简单,或可包括更复杂的组织技术(诸如,叙事)。然后,由于情绪/感情附属于面元本身,所以存储/故事可被容易地编辑、共享和再体验。
在本发明的另一实施例中,面元(和最终面元被组织的故事)可附属于物理对象。这可通过获得针对对象的唯一标识符(诸如,通过条形码或RFID扫描、或经由图像或文本识别软件)来被实现。然后,唯一ID可附属于面元并与面元一起被存储,因此,可容易地基于唯一ID来搜索和检索。
在本发明的另一实施例中,可通过使用合作故事编写工具来与其他人容易地创建共享存储。
参照除了面元之外情绪和/或情感被捕捉的实施例,可从传感器数据中得到用户情绪/情感。可从位于捕捉面元的装置(例如,如果移动电话的相机正在捕捉面元,则该装置为移动电话)上或捕捉面元的装置的外部(例如,网络化面部识别相机和软件)的一个或更多个硬件或软件传感器收集传感器数据。传感器的示例包括生理传感器(诸如,心率监视器、血压监视器、面部表情监视器(例如,与面部表情识别软件一起使用相机)、语音传感器(例如,与语音模式识别软件结合以检测用户的语音中的情绪模式的麦克风))以及数据相关传感器(诸如,跟踪哪些应用正在被使用或使用可确定用户喜欢/讨厌的应用采取的行动(例如,购买、评级、或投票或仅文本输入)。大量研究已经显示了情绪状态与生理信号之间的关联。使用云计算和更强大的客户机装置,自动地估计用户情绪状态变得实用。实际上,甚至不需要使用专业的传感器硬件。可使用现有移动装置上的很多硬件(相机、麦克风、触摸屏)来测量生理响应并确定情绪状态。
实际上,本发明的此实施例可与任意传感器一起被使用以明确地或隐含地确定用户情绪和/或情感,所述任意传感器能够测量可被使用的数据。
传感器数据也可被用于推断用户的情况(situation)/环境,这可被用于使回忆/存储更丰富并更生动。用于这个目的的数据可包括,例如,时间/日期、位置、天气、用户运动、背景声音或气味等。所述数据可与其它传感器数据一起被使用以使情绪/情感确定更准确。例如,如果其它传感器(诸如,加速计)指示用户正在跑步(例如,在徒步旅行中),则更快的心率会更有可能指示在情绪上的改变。如此,用户的情况或环境可被用于使情绪/情感数据更准确。
基于应用需要,开发者可选择将被记录的数据的类型、何时记录和多久记录一次数据。一种触发记录的开始和结束的简单方式是允许用户具有控制权。例如,应用可被提供给用户以在以下选项中进行选择:(1)自动周期性地记录;(2)仅当发出开始命令时记录,并在发出停止命令时停止;(3)当面元捕捉活动设置中的活动开始时(例如,当进行拍照时,或视频记录开始时)。这种活动的开始和结束可被检测,例如,当相应应用被打开或关闭时或当在一个应用中从用户接收到输入时。用户也可设置用于捕捉传感器数据的时间量(例如,在记录面元之前的5秒或在记录面元之后的5秒)。
可将来自各种传感器的信息进行加权。换言之,来自一些传感器(诸如,更可靠或更有影响的那些传感器)的数据可比来自其它传感器的数据具有更高的值,以便增加评估的准确性。这种加权可不仅基于传感器数据的固有可靠性(例如,心率监视可比语音跟踪更可靠),而且基于传感器数据被收集的环境(例如,在嘈杂环境下的录音比安静环境下的录音可靠性更低)。
在本发明的另一实施例中,系统可在用户已经完成记录面元之后执行情绪/情感分析,并向用户呈现结果以编辑。以这种方式,如果用户觉得不正确,则他/她可修改情绪/情感。例如,因为检测到用户正在哭泣和啜泣,则传感器数据可表明用户难过,但是用户可从观察到她的女儿结婚而知道它是喜悦的泪水,并因此可将标记到照片的“难过”情感编辑为“喜悦”情感。
此外,编辑应用可提供各种工具。这可包括,例如:用于处理传感器数据以推断用户情绪/情感的工具、用于自动或半自动的视频/音频/照片编辑或音效编辑的工具、用于音乐选择、作曲的工具、用于叙述作文的工具和用于影片组成的工具。
一旦识别出用户情绪/情感,则系统能够自动将情感/情绪注入到故事。以这种方式,各种面元的情绪/情感可不仅被用于识别与被分组相似的面元,而且可被用于在最终故事中更改面元的呈现。例如,如果面元情绪全是“难过”,则“难过”乐曲可被自动地注入到故事中面元被描述的点。可选地,可向用户呈现可能合适的音乐选择的列表来选择。
一旦用户已经完成了对故事的编辑,则系统可将产生的故事打包并将它上传到服务器或云。系统的设计者可决定是否丢弃初始面元和传感器数据,或让用户做出这样的决定。保持初始面元和传感器数据的优点是面元可在将来被用于其它目的,并且传感器数据可被累积以挖掘长期模式。缺点是上传需要更大的带宽/时间,保持它们需要更大的存储器,并且对于大多数人而言,面元中的很大比例不会被再使用。
为了本文档,故事编写可被组织为各种分层。例如,故事可首先被组织为存储片段(例如,女儿的婚礼),然后多个存储片段可被组织为一个影片(例如,女儿的重大生活事件的编辑)。较大影片的组成也可包括使用除了已经被组织为片段的面元之外的先前未被分配的面元。与面元一起的情绪/情感的存储在影片如何被编辑上允许有很大灵活性。
对于片段和影片组成,系统还可给出这样的选项:在没有用户介入的情况下自动地在云或服务器中执行,或通过使用客户机装置在处理中包括用户。可选地,可在客户机装置上创建整个组成。
面元本身可以以这种方式被存储:加速并提高意图定位面元的搜索的准确性。例如,标签(例如,元数据)可被用于存储情绪/情感、来自朋友的评论和指示可与面元一起被存储的环境/情况的数据。此外,语音识别可被用于从面元的音频流(例如,视频的音频部分或电话交谈的全部音频)提取主题关键词。然后,关键词可被用于对面元编写索引,这在很大程度上与来自web页的关键词被用于对搜索引擎编写索引的方式相同。
也可将存储的面元组织起来以捕捉面元之间的关系。在简单的情况下,存储影片包括一个或更多个存储片段。片段可被用在一个或更多个影片中。片段可包含一个或更多个不同类型的面元(诸如,图片、视频、声音、音乐、气味、纹理和叙事)。影片也可具有这些面元中的一个或更多个以涵盖一组片段。这种关系可通过多根树结构来捕捉,在所述多根树结构中,面元作为叶节点、影片作为根节点,片段在中间层中。当影片的一部分可由另一影片共享时,出现更复杂的关系。处理这种情况的一种方式是对划分影片,使得共享的部分与未共享的部分分开。通过创建针对整个影片的新根节点并将这些部分看做片段,多根树结构可再次被用于表现所述关系。一般而言,这些表现可被称作关系图。
为了更快的搜索,可将关系图和索引链接。当从面元创建存储对象时,文本描述可被添加为叙事。这些文本可包含不在面元中的关键词。对它们编写索引可帮助搜索对象。例如,可被链接到关键词或短语的面元的指针可被存储在针对关键词或短语的索引的条目中。如另一示例,可被链接到关键词或短语的存储对象的指针可被存储在针对关键词或短语的索引的条目中。
在本发明的另一实施例中,获得针对作为面元的主体的物理对象(例如,兴趣点(诸如,照片中捕捉的埃菲尔铁塔)、在其上具有条形码的消费产品等)的唯一标识符。这种ID可(经由条形码符号、快速响应(QR)符号或对象本身上的RFID标签)被直接获得或经由检测软件(例如,能识别照片中的埃菲尔铁塔的图像识别软件)被间接获得。然后,ID可附属于面元并与被收集的最终的存储片段关联。声音或气味也可被用于针对对象创建唯一签名。
在另一实施例中,提供能够容易地组成并编辑在多个用户之间的共享存储的能力。图1是示出根据本发明的实施例的多个用户之间的共享存储的容易组成的流程图。可提供搜索引擎或社交网络服务(诸如,FourSquare)以寻找也为了观看王室婚礼而去英国的朋友,与他们交换照片/视频并与他们编写共享故事。在100,可找到朋友。在102,可与找到的朋友共享或交换片段。在104,独立于找到朋友,可捕捉存储的面元。在106,独立于捕捉面元,可捕捉与面元有关的环境信息。在108,可从面元和环境构建存储片段,并且这个存储片段可在102被共享。在110,可使用片段创作共享的存储。在112,可将创作的存储上传或共享。可每次一个单独编写和/或编辑存储故事。可选地,可由一组用户通过使用协同存储故事编辑器(composer)来编写共享的存储故事。
简单的协同存储故事编辑器可包括主编辑器和一个或更多个客户机编辑器。主编辑器维持与正在被编写的对象的原件的一致性。它与故事的原件可一起驻存在服务器或云上。客户机副本可与最后提交/保存的原件一致。在任何时刻,只有一个客户机编辑器可具有编辑控制权(例如,只有一个客户机编辑器可编辑它的对象的副本,而其它全部客户机编辑器只能观看对象)。每一次编辑可被反映在所有的客户机副本上,但是只有在编辑被成功地提交之后,原件能够编辑。
协同编辑器也可提供视频或音频通信信道,使得当一起编辑存储对象时,参与者可相互交流。一旦团队决定提交或保存编辑,则具有编辑控制权的客户机编辑器可执行提交。如果没有编辑控制权的客户机编辑器退出(例如,被关闭),则主编辑器除了记录退出之外不需要做任何事情。如果存在具有编辑控制权的客户机编辑器,则可首先将控制权传递到另一客户机编辑器。然而,如果没有传递控制权,则主编辑器仍然可接管控制权,并将控制权传递到剩余客户机编辑器中的一个。如果编辑还没有被提交但已经被反映到具有控制权的当前客户机编辑器的副本中,则当前客户机可执行提交。当所有的客户机编辑器已经退出时,存在主编辑器。更多特征(包括在协同编辑中的容错性)可被包括。
在本发明的另一实施例中,基于分组的互动心情和活动凝聚力的等级并基于分组的共同兴趣和经历,可感测心情或凝聚力并提出帮助促进分组归属感的线索/话题的背景建议。
互动心情的示例包括激动、高兴、难过和生气。活动凝聚力的示例包括很多共享、无话可说和忙于做不同的事情。可从传感器数据中得出心情和分组的凝聚力。例如,可记录并分析谈话的声音以识别分组成员相互交谈的频率和有多少人参与这个对话。可得到在声音中反映的情感线索以表现心情。系统也可记录正在被使用的应用、输入的文本(如果有)和由每一个成员使用应用的其它活动。语音识别也可被用于识别正在讲出的关键词。然后,由每一个用户输入的关键词和文本可被用于识别当前会话的话题。从这些数据,系统可推断出分组的成员是忙于做不同的事情还是共享经历。例如,如果一个用户具有使用不同于其他用户的应用的很多活动,或与分组之外的人们进行交流,则他/她很有可能不参与分组活动。在本地服务器上或云中可执行计算,然而,可也在客户机装置上执行计算。
系统也可将不同的因素不同对待,例如,在计算过程中给更可靠或有影响的因素分配更大的权重,从而增加心情和凝聚力的评估的准确性。
系统也可得出分组的共同兴趣。通常,兴趣可包括用户的喜欢和不喜欢。可通过分析用户的简档来提取用户的兴趣。可使用统计信息设置或由用户指定用户简档,或从用户的使用历史或它们的任意组合得出用户简档。使用记录通常由系统通过记录用户使用应用/与应用的交互来创建,使用记录包括创建、共享和查看存储对象。一旦获得了单个用户的兴趣,则可容易地得出在用户之间的共同兴趣。
系统也可得出分组的共同经历。实现这个处理的简单方式是使用存储对象元数据(诸如,识别由存储对象捕捉的人、共享对象的人、喜欢对象的人和共同创作对象的人等的元数据)。另一示例可包括使用元数据中的地点位置。语音到文本的会话可再一次被用于提取关键词并被用于识别会话中可能的话题。
基于分组的互动心情和活动凝聚力,系统可决定推荐可促进更好的共享经历的存储对象。例如,如果系统认为分组处于不好的心情中或分组活动非常不相关,则系统会建议具有共同兴趣和经历的存储对象。如果系统发现分组正在讨论共享的经历,则系统可检索还没有被讨论的新的有关的存储对象。可以以非入侵的方式(诸如,在没有声音的情况下,通过在第二屏幕(不是分组主要使用的屏幕)上显示存储对象)来执行建议/推荐。
图2是示出根据本发明的实施例的系统的框图。存储服务平台200可位于例如云上或在家用服务器上。存储服务平台可包括存储器服务202、存储搜索和检索服务204和社交网络服务206以及服务器/云系统软件208,其中,服务器/云系统软件208被设计为与存储创作平台210和存储消费平台212交互。客户机装置可管理存储创作平台210和/或存储消费平台212。
存储创作平台210可包括片段构建工具214、影片创作工具216和易共享并上传模块218以及装置系统软件220,其中,装置系统软件220被设计为使用存储服务平台220来存储、共享或上传存储器对象和/或故事。用户可使用存储创作平台以捕捉面元、使用面元来创建并修改存储对象、从面元构建片段或音乐,并将以上全部内容共享并上传到存储服务平台200。
存储消费平台212可包括n-屏支持222。n-屏支持包括用于在装置上按照不同形式因素适当地播放媒体内容(诸如图像、绘画、照片和视频)的硬件和软件。这种装置的示例包括移动电话、平板、电视和PC。存储消费平台212也可包括:智能搜索自适应流传输224,允许用户快速定位匹配存储对象和故事并将那些对象和故事流传输到显示器。也可提供非入侵式归属感促进模块226以监视分组心情和凝聚力,并建议将促进分组归属感的存储对象或故事。也可提供社交网络支持模块228,以例如在同一位置或同一地点需找朋友或寻找具有相似兴趣的人。
图3是示出根据本发明的实施例的用于在电子装置上创建存储对象的方法的流程图。在300,使用电子装置捕捉面元。面元可以是例如静止图片、视频、文本消息等。在302,在捕捉面元的同时获得与电子装置的用户的情感状态有关的传感器信息。可看出,步骤300和步骤302可以以任意顺序被执行。在304,基于记录的传感器信息确定用户的情感状态。在306,面元与确定的情感状态一起被存储为存储对象。确定的情感状态可被存储为存储对象中的元数据。
图4是示出根据本发明的一个实施例的用于将存储对象与物理对象关联的方法的流程图。在400,可创建标识并将标识与物理对象关联。诸如,在ID是RFID或条形码符号的情况下,该步骤可由产品制造商或经销商执行。可选地,该步骤可由客户机装置使用某种检测软件(诸如,从照片识别对象的图像识别软件)来执行。在402,创建包括物理对象的存储对象(例如,对象的照片)并且将先前创建的标识与该存储对象关联。在404,将新的存储对象上传到存储服务平台。可选地,在406,将新的存储对象与另一用户共享。
图5是示出根据本发明的实施例的用于使用与物理对象关联的存储对象的方法的流程图。在500,获得物理对象的标识。这可通过例如读取物理对象的RFID或条形码来执行。在502,从服务平台检索与标识关联的一个或更多个存储对象。这可通过例如使用获得的标识或可使用的元数据(诸如,位置、时间、情感、人等)的搜索来执行。此时,在504,可观看或体验存储对象。可选地,可在506编辑或修改存储对象,或在508上传或共享存储对象。
图6是示出根据本发明的实施例的用于促进分组归属感的方法的流程图。在600,监视分组中的用户的装置应用使用活动。在602,监视分组中的用户之间的互动的心情。在604,使用语音到文本翻译以从分组的用户之间的交流识别主题关键词。注意,可看出,可以以任意顺序执行步骤600、步骤602和步骤604。
在606,装置应用使用活动和心情被用于计算分组的归属感。在608,确定共同分组兴趣。例如,可通过计算成员的感兴趣简档之间的相似性来获得共同兴趣。可选地,在610,确定共同分组经历。例如,可通过计算成员的存储对象的元数据之间的相似性来获得共同经历。这些步骤可使用在604中识别的主题关键词。最终,在612,可基于共同分组兴趣和经历以及基于分组的归属感来推荐新的或有关的存储对象。
图7是示出根据本发明的实施例的用于将新的存储对象添加到物理对象的现有存储对象和物理对象的其他存储对象的方法的流程图。虽然在一些实施例中,图7的方法可独立于图4的一些步骤或全部步骤被执行,但是该方法可被视为附加到图4的方法。在700,创建新的存储对象。在702,获得针对作为存储对象的主体的物理对象的唯一标识符。可通过例如读取物理对象的RDID或条形码来获得唯一标识符,或者唯一标识符可以是由图像识别软件分配到物理对象的唯一标识。在704,将唯一标识符附属于创建的存储对象。在706,存储对象被链接到相同物理对象的其它存储对象。
图8是示出根据本发明的实施例的用于推荐存储对象的方法的流程图。虽然在一些实施例中,图8的方法可独立于图6的一些步骤或全部步骤被执行,但是该方法可被视为附加到图6的方法。在800,可确定邻近电子装置的一组人的心情。在802,确定一组人的分组凝聚力。在804,分析一组人中的人的简档以确定共享的兴趣或经历。注意,可看出,可以以任意顺序来执行步骤800、步骤802和步骤804。在806,基于一组人的心情、分组凝聚力和共享的兴趣或经历来推荐一个或更多个存储对象。在808,可在一组人前面的第二显示器上播放一个或更多个推荐的存储对象。
图9是示出根据本发明的另一实施例的用于在电子装置上创建存储对象的方法的流程图。在900,使用电子装置捕捉面元。面元可以是例如静止图片、视频、文本消息等。在902,在捕捉面元的同时获得与电子装置的用户的情感状态有关的传感器信息。可看出,可以以任意顺序来执行步骤900和步骤902。在904,基于记录的传感器信息来确定用户的情感状态。在906,将面元与确定的情感状态关联以形成存储对象。在908,将存储对象与一个或更多个其它有关的存储对象链接。
如对于本领域普通技术人员将理解的,可以以很多方式(例如,由处理器执行的程序指令、作为软件模块、微码、作为在计算机可读介质上的计算机程序产品、作为逻辑电路、作为专用集成电路、作为固件、作为消费电子装置等)来实现前述示例架构,并前述示例架构可使用无线装置、无线发送器/接收器和无线网络的其它部分。此外,用于在多电子显示屏幕上显示多媒体内容的公开的方法和系统的实施例可采取整个硬件实施例的形式、整个软件实施例的形式或包含软件元件和硬件元件的实施例的形式。
术语“计算机可读介质”通常被用于表示诸如主存储器、第二存储器、可移除存储器、硬盘、闪存、盘驱动存储器、CD-ROM和其它形式的持久存储器的介质。应注意,程序存储装置不应被解释为覆盖暂时主题对象(诸如,载波或信号),而是可被用于描述包含用于操作本发明的各种方法的可执行计算机代码的存储装置。程序存储装置和计算机可读介质是通常被用于表示诸如主存储器、第二存储器、可移除存储盘、硬盘驱动器和其它具体的存储装置或组件的介质的术语。
虽然仅详细地描述了本发明的一些实施例,但是应理解:可在不脱离本发明的精神或范围的情况下以很多其它方式来实现本发明。因此,本实施例应被考虑为示意性的,而非限制性的,并且本发明不限于在此给出的细节,而是可在权利要求的范围和等同物内进行修改。

Claims (22)

1.一种用于在电子装置上创建存储对象的方法,包括:
使用电子装置捕捉面元;
在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息;
基于记录的传感器信息来确定用户的情绪状态;
将面元和确定的情绪状态一起存储为存储对象。
2.如权利要求1所述的方法,还包括:将创建的存储对象链接到其它存储对象。
3.如权利要求1所述的方法,其中,面元是静止图片。
4.如权利要求1所述的方法,其中,面元是视频。
5.如权利要求1所述的方法,其中,面元是文本消息。
6.如权利要求1所述的方法,其中,确定的情绪状态被存储为存储对象中的元数据。
7.如权利要求1所述的方法,还包括:
获得针对作为面元的主体的物理对象的唯一标识符;
将唯一标识符附属于存储对象;
将存储对象链接到具有相似附属的唯一标识符的其它存储对象上。
8.如权利要求7所述的方法,其中,唯一标识符是射频标识RFID,并且获得的步骤包括:使用RFID扫描器从物理对象上的RFID标签或粘贴到物理对象的RFID标签检测唯一标识符。
9.如权利要求7所述的方法,其中,唯一标识符是条形码,并且获得的步骤包括:使用条形码扫描器以从物理对象上的条形码或粘贴到物理对象的条形码检测唯一标识符。
10.如权利要求7所述的方法,其中,通过使用图像识别软件识别面元中的预定对象来获得唯一标识符。
11.如权利要求1所述的方法,还包括:
提供主编辑工具和一个或更多个客户机编辑器,其中,客户机编辑器允许单个用户修改存储对象的副本,而主编辑工具维持每一个存储对象的原件并使用来自所述一个或更多个客户机编辑器的改变来更新原件。
12.如权利要求1所述的方法,还包括:
确定邻近电子装置的一组人的心情;
确定所述一组人的分组凝聚力;
分析所述一组人中的人的简档以确定共享的兴趣或经历;
基于所述一组人的心情、分组凝聚力和共享的兴趣或经历来推荐一个或多个存储对象。
13.如权利要求12所述的方法,还包括:在所述一组人前面的第二显示器上播放所述一个或更多个推荐的存储对象。
14.一种装置,包括:
处理器;
存储器;
一个或更多个传感器,被设计为记录与用户的情绪状态有关的传感器信息;
面元捕捉装置,其中,面元捕捉装置被设计为捕捉面元;
其中,处理器被配置为基于记录的传感器信息确定用户的情绪状态,并将面元与确定的情绪状态一起作为存储对象存储在存储器中。
15.如权利要求14所述的装置,其中,面元捕捉装置是相机。
16.如权利要求14所述的装置,其中,所述一个或更多个传感器是被配置为与面部识别软件一起工作的相机。
17.如权利要求14所述的装置,其中,所述一个或更多个传感器包括心率监视器。
18.如权利要求14所述的装置,其中,所述一个或更多个传感器包括被配置为与语音识别软件一起工作的麦克风。
19.一种电子装置,包括:
用于使用电子装置捕捉面元的部件;
用于在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息的部件;
用于基于记录的传感器信息来确定用户的情绪状态的部件;
用于将面元和确定的情绪状态一起存储为存储对象的部件;
用于获得针对作为面元的主体的物理对象的唯一标识符的部件;
用于将唯一标识符附属于存储对象的部件;
用于将存储对象链接到具有相似附属的唯一标识符的其它存储对象的部件。
20.如权利要求19所述的电子装置,其中,用于获得针对物理对象的唯一标识符的部件是条形码扫描器。
21.如权利要求19所述的电子装置,其中,用于获得针对物理对象的唯一标识符的部件是射频标识RFID扫描器。
22.一种机器可读的非暂时性程序存储装置,所述非暂时性程序存储装置具体实施可由机器执行的指令的程序以执行用于在电子装置上创建存储对象的方法,所述方法包括:
使用电子装置捕捉面元;
在捕捉面元的同时记录与电子装置的用户的情绪状态有关的传感器信息;
基于记录的传感器信息来确定用户的情绪状态;
将面元与确定的情绪状态一起存储为存储对象;
将存储对象链接到具有相似的存储的情绪状态的其它存储对象。
CN201180072782.4A 2011-08-08 2011-12-22 生活记录和存储共享 Pending CN103959227A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13/205,236 US20130038756A1 (en) 2011-08-08 2011-08-08 Life-logging and memory sharing
US13/205,236 2011-08-08
KR1020110133666A KR20130018468A (ko) 2011-08-08 2011-12-13 라이프로깅 및 메모리 공유 방법
KR10-2011-0133666 2011-12-13
PCT/KR2011/009985 WO2013022156A1 (en) 2011-08-08 2011-12-22 Life-logging and memory sharing

Publications (1)

Publication Number Publication Date
CN103959227A true CN103959227A (zh) 2014-07-30

Family

ID=47677311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180072782.4A Pending CN103959227A (zh) 2011-08-08 2011-12-22 生活记录和存储共享

Country Status (5)

Country Link
US (1) US20130038756A1 (zh)
EP (1) EP2742416A4 (zh)
KR (1) KR20130018468A (zh)
CN (1) CN103959227A (zh)
WO (1) WO2013022156A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105662441A (zh) * 2015-12-31 2016-06-15 许昌学院 一种心理调控舱
CN107735785A (zh) * 2015-10-29 2018-02-23 谷歌有限责任公司 自动信息检索

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9286643B2 (en) 2011-03-01 2016-03-15 Applaud, Llc Personalized memory compilation for members of a group and collaborative method to build a memory compilation
US8788587B2 (en) * 2012-06-15 2014-07-22 Be Labs, Llc System, method, and product for capturing memories
US9442687B2 (en) * 2012-07-23 2016-09-13 Korea Advanced Institute Of Science And Technology Method and apparatus for moving web object based on intent
KR20140033672A (ko) * 2012-09-10 2014-03-19 삼성전자주식회사 이벤트에 관련된 정보를 전송하는 방법 및 디바이스
KR102091848B1 (ko) * 2013-01-04 2020-03-20 삼성전자주식회사 전자 장치에서 사용자의 감정 정보를 제공하기 위한 장치 및 방법
US20160042140A1 (en) * 2013-02-27 2016-02-11 Applaud, Llc Method for creating a personalized memory compilation for collaborative therapeutic reminiscence
GB2517998A (en) * 2013-09-10 2015-03-11 Nokia Corp Apparatus for collating content items and associated methods
FR3010557A1 (fr) * 2013-09-12 2015-03-13 Orange Traitement automatique de donnees multimedia lues par un terminal de communication
US9516259B2 (en) * 2013-10-22 2016-12-06 Google Inc. Capturing media content in accordance with a viewer expression
US9342501B2 (en) * 2013-10-30 2016-05-17 Lenovo (Singapore) Pte. Ltd. Preserving emotion of user input
US11222613B2 (en) * 2014-03-31 2022-01-11 Meural, Inc. System and method for output display generation based on ambient conditions
WO2015178078A1 (ja) * 2014-05-22 2015-11-26 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US20150346932A1 (en) * 2014-06-03 2015-12-03 Praveen Nuthulapati Methods and systems for snapshotting events with mobile devices
US10052056B2 (en) * 2014-09-01 2018-08-21 Beyond Verbal Communication Ltd System for configuring collective emotional architecture of individual and methods thereof
US9607595B2 (en) * 2014-10-07 2017-03-28 Matteo Ercolano System and method for creation of musical memories
US10430805B2 (en) * 2014-12-10 2019-10-01 Samsung Electronics Co., Ltd. Semantic enrichment of trajectory data
KR20160105321A (ko) 2015-02-27 2016-09-06 임머숀 코퍼레이션 사용자의 무드에 기초하는 액션 생성
US10061977B1 (en) 2015-04-20 2018-08-28 Snap Inc. Determining a mood for a group
KR101706371B1 (ko) * 2015-10-08 2017-02-28 이영신 라이프로그 서비스를 수행하는 이동 단말기 및 서버
EP3188037A1 (en) 2015-12-31 2017-07-05 Thomson Licensing Method and device for managing personal media items
US20170200389A1 (en) * 2016-01-11 2017-07-13 Omri Yigal Pocket therapist
KR101754093B1 (ko) * 2016-09-01 2017-07-05 성기봉 기록이 자동으로 분류되어 저장되는 개인기록 관리 시스템
US10255549B2 (en) 2017-01-27 2019-04-09 International Business Machines Corporation Context-based photography and captions
US10281983B2 (en) 2017-09-20 2019-05-07 Alex Hamid Mani Haptic feedback device and method for providing haptic sensation based on video
US10275083B2 (en) 2017-09-20 2019-04-30 Alex Hamid Mani Assistive device with a refreshable haptic feedback interface
US10503310B2 (en) * 2017-09-20 2019-12-10 Alex Hamid Mani Assistive device for non-visually discerning a three-dimensional (3D) real-world area surrounding a user
US11140308B2 (en) 2018-07-25 2021-10-05 International Business Machines Corporation Life-logging system with third-person perspective
US10963043B2 (en) * 2018-11-12 2021-03-30 Accenture Global Solutions Limited Utilizing machine learning to determine survey questions based on context of a person being surveyed, reactions to survey questions, and environmental conditions
US11335360B2 (en) 2019-09-21 2022-05-17 Lenovo (Singapore) Pte. Ltd. Techniques to enhance transcript of speech with indications of speaker emotion
US10769203B1 (en) * 2019-10-17 2020-09-08 Samsung Electronics Co., Ltd. System and method for prediction and recommendation using collaborative filtering
CN113656638B (zh) * 2021-08-16 2024-05-07 咪咕数字传媒有限公司 一种观看直播的用户信息处理方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1514399A (zh) * 2002-11-25 2004-07-21 ��˹���´﹫˾ 用于健康监视和个人安全的成像方法和系统
EP1606698A2 (en) * 2003-03-25 2005-12-21 British Telecommunications Public Limited Company Apparatus and method for generating behaviour in an object
CN101286196A (zh) * 2007-04-10 2008-10-15 索尼株式会社 图像存储处理装置和方法、图像搜索装置和方法以及程序
US20090122147A1 (en) * 2007-11-09 2009-05-14 Sony Corporation Information-processing apparatus and method
CN102014237A (zh) * 2009-09-04 2011-04-13 卡西欧计算机株式会社 电子相框及其控制方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6659344B2 (en) * 2000-12-06 2003-12-09 Ncr Corporation Automated monitoring of activity of shoppers in a market
GB2370709A (en) * 2000-12-28 2002-07-03 Nokia Mobile Phones Ltd Displaying an image and associated visual effect
US7068309B2 (en) * 2001-10-09 2006-06-27 Microsoft Corp. Image exchange with image annotation
US7603371B1 (en) * 2002-12-17 2009-10-13 Vignette Corporation Object based system and method for managing information
FR2849654B1 (fr) * 2003-01-07 2006-12-15 Atofina Res Metallocenes pontes du groupe iii a base de ligands cyclopentadienyle-fluorenyle
US20060098027A1 (en) * 2004-11-09 2006-05-11 Rice Myra L Method and apparatus for providing call-related personal images responsive to supplied mood data
JP2006303651A (ja) * 2005-04-15 2006-11-02 Nokia Corp 電子装置
US20070008321A1 (en) * 2005-07-11 2007-01-11 Eastman Kodak Company Identifying collection images with special events
EP1793580B1 (en) * 2005-12-05 2016-07-27 Microsoft Technology Licensing, LLC Camera for automatic image capture having plural capture modes with different capture triggers
US20080155587A1 (en) * 2006-12-20 2008-06-26 General Instrument Corporation Video Content Targeting System and Method
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
KR101625208B1 (ko) * 2009-03-05 2016-05-31 삼성전자주식회사 정보 구성장치와 전자장치 및 정보 구성방법
US9195898B2 (en) * 2009-04-14 2015-11-24 Qualcomm Incorporated Systems and methods for image recognition using mobile devices
US8768313B2 (en) * 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
US8350675B2 (en) * 2010-04-30 2013-01-08 Symbol Technologies, Inc. Triggering a radio frequency identification scan using image recognition
US8655889B2 (en) * 2010-12-10 2014-02-18 Microsoft Corporation Autonomous mobile blogging
US20120203751A1 (en) * 2011-02-07 2012-08-09 International Business Machines Corporation Capture, Aggregate, and Use Search Activities as a Source of Social Data Within an Enterprise
US8760551B2 (en) * 2011-03-02 2014-06-24 Canon Kabushiki Kaisha Systems and methods for image capturing based on user interest

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1514399A (zh) * 2002-11-25 2004-07-21 ��˹���´﹫˾ 用于健康监视和个人安全的成像方法和系统
EP1606698A2 (en) * 2003-03-25 2005-12-21 British Telecommunications Public Limited Company Apparatus and method for generating behaviour in an object
CN101286196A (zh) * 2007-04-10 2008-10-15 索尼株式会社 图像存储处理装置和方法、图像搜索装置和方法以及程序
US20090122147A1 (en) * 2007-11-09 2009-05-14 Sony Corporation Information-processing apparatus and method
CN102014237A (zh) * 2009-09-04 2011-04-13 卡西欧计算机株式会社 电子相框及其控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吴晓辉,范嘉鹏: "客户端脚本协同开发编辑器的设计与实现", 《科技信息》 *
徐保民,高强,冯键等: "《计算机支持的协同设计》", 30 September 2007, 成都:电子科技大学出版社 *
许文涛,安常青,谢树煜: "分布式多媒体协同编辑器DMCEdit", 《计算机工程与应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107735785A (zh) * 2015-10-29 2018-02-23 谷歌有限责任公司 自动信息检索
US10915592B2 (en) 2015-10-29 2021-02-09 Google Llc Indexing native application data
US11500953B2 (en) 2015-10-29 2022-11-15 Google Llc Indexing native application data
US11748429B2 (en) 2015-10-29 2023-09-05 Google Llc Indexing native application data
CN105662441A (zh) * 2015-12-31 2016-06-15 许昌学院 一种心理调控舱

Also Published As

Publication number Publication date
EP2742416A4 (en) 2015-01-07
WO2013022156A1 (en) 2013-02-14
KR20130018468A (ko) 2013-02-25
EP2742416A1 (en) 2014-06-18
US20130038756A1 (en) 2013-02-14

Similar Documents

Publication Publication Date Title
CN103959227A (zh) 生活记录和存储共享
US11935079B2 (en) Conducting digital surveys that collect and convert biometric data into survey respondent characteristics
Seaver Computing taste: Algorithms and the makers of music recommendation
Elsden et al. A quantified past: Toward design for remembering with personal informatics
US7716054B2 (en) Activity-ware for non-textual objects
CN104903889B (zh) 内容组织方法
US8930490B2 (en) Lifestream annotation method and system
CN108780654A (zh) 生成用于视频的移动缩略图
US20130343729A1 (en) System and method for semi-automatic video editing
CN109416805A (zh) 用于具有自动广告的媒体集的呈现的方法和系统
Roy The birth of a word
JP2011528879A (ja) テレビジョンシーケンスを提供するための装置および方法
CN109788345A (zh) 直播控制方法、装置、直播设备及可读存储介质
US20200137011A1 (en) Method and system for communicating between a sender and a recipient via a personalized message including an audio clip extracted from a pre-existing recording
Lee et al. Integrating character networks for extracting narratives from multimodal data
CN113284523A (zh) 一种动效显示方法、装置、计算机设备和存储介质
EP3985669A1 (en) Methods and systems for automatically matching audio content with visual input
CN110476162A (zh) 使用导航助记符控制显示的活动信息
WO2023091211A1 (en) Meeting-video management engine for a meeting-video management system
CN111931073A (zh) 内容推送方法、装置、电子设备及计算机可读介质
JP7512900B2 (ja) 情報処理システム、情報処理方法および情報処理装置
Venkatesh et al. “You Tube and I Find”—Personalizing multimedia content access
Ridge Crowdsourcing in Cultural Heritage: A practical guide to designing and running successful projects
Chen et al. Background Music Recommendation on Short Video Sharing Platforms
CN117591697B (zh) 基于人工智能和视频处理的文本推荐方法和系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140730