CN107210950A - 用于共享用户交互的设备 - Google Patents

用于共享用户交互的设备 Download PDF

Info

Publication number
CN107210950A
CN107210950A CN201580067550.8A CN201580067550A CN107210950A CN 107210950 A CN107210950 A CN 107210950A CN 201580067550 A CN201580067550 A CN 201580067550A CN 107210950 A CN107210950 A CN 107210950A
Authority
CN
China
Prior art keywords
user
information
content
trackpad
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580067550.8A
Other languages
English (en)
Inventor
J·阿尔迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Muzik LLC
Original Assignee
Muzik LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Muzik LLC filed Critical Muzik LLC
Publication of CN107210950A publication Critical patent/CN107210950A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/06Message adaptation to terminal or network requirements
    • H04L51/063Content adaptation, e.g. replacement of unsuitable content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/53Centralised arrangements for recording incoming messages, i.e. mailbox systems
    • H04M3/533Voice mail systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/265Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors
    • G10H2220/311Key design details; Special characteristics of individual keys of a keyboard; Key-like musical input devices, e.g. finger sensors, pedals, potentiometers, selectors with controlled tactile or haptic feedback effect; output interfaces therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/391Angle sensing for musical purposes, using data from a gyroscope, gyrometer or other angular velocity or angular movement sensing device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/251Spint percussion, i.e. mimicking percussion instruments; Electrophonic musical instruments with percussion instrument features; Electrophonic aspects of acoustic percussion instruments, MIDI-like control therefor
    • G10H2230/275Spint drum
    • G10H2230/281Spint drum assembly, i.e. mimicking two or more drums or drumpads assembled on a common structure, e.g. drum kit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/095Identification code, e.g. ISWC for musical works; Identification dataset
    • G10H2240/101User identification
    • G10H2240/105User profile, i.e. data about the user, e.g. for user settings or user preferences
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/155Library update, i.e. making or modifying a musical database using musical parameters as indices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/321Bluetooth

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)

Abstract

数据管理的系统,其中由第一用户利用的内容可被识别出,且关于这样的内容的信息可被共享给至少一个额外的用户,使得至少一个额外的用户可将识别出的内容从内容源取出。在一些实现中,用户可使用除了他的个人电子设备之外的控制设备将信息和命令输入到系统。

Description

用于共享用户交互的设备
相关申请的交叉引用
本申请要求2014年10月10日提交的标题为“DEVICES FOR SHARING USERINTERACTIONS”的美国临时申请号62/062,672的优先权利益,该临时申请通过引用被全部并入。
背景技术
本申请涉及远程输入设备,且更具体地,涉及集成有输出设备的输入设备。计算设备通常由用户使用来执行各种各样的功能。用户通过与一个或多个控件交互来向计算设备发出命令,输入常常通过输入设备(例如键盘、触控板、鼠标或触摸屏)来完成。计算设备经由视频监控器、扬声器、头戴式耳机或其它感觉/感知设备响应于各种形式的用户命令而输出内容。直接从输出设备向计算设备输入控制和命令(例如经由头戴式耳机向音频播放器输入命令或当音频文件被播放时经由头戴式耳机实时地与社交媒体通道交互)可能是合乎需要的。除基本输出命令例如“播放”、“停止”、“暂停”和“音量”以外,当前输出设备不允许对在计算设备上运行的软件程序的控制或输入。
发明内容
本说明书描述涉及交互式远程输入设备和交互式输出设备——例如且没有限制地,网络连接的交互式头戴式耳机、交互式软件狗、交互式电缆、交互式扬声器、交互式乐器和交互式手控制器——的技术。
在附图中阐述并在下面描述了在本说明书中所述的主题的一个或多个实施方式的细节。从描述、附图和权利要求中,主题的其它特征、方面和优点将变得明显。
附图说明
图1是用于接受、解释和传输用户输入的示例系统的图。
图2是用于解释与输入接口模块的交互的示例技术的图。
图3是用于收集并解释接近度信息的示例系统的图。
图4是用于收集传感器数据的示例系统的图。
图5是示例音频系统的图。
图6是示例数据分组的图。
图7是另一示例数据分组的图。
图8是示出直接模拟输入/输出的图。
图9示出分组转换的例子。
图10示出示例基于按钮的操作。
图11A-D示出在客户端之间交换数据的示例过程。
图12示出在移动应用和服务器之间传输的示例数据。
图13示出在移动应用和社交媒体服务器之间传输的示例数据。
图14示出在移动应用和媒体源之间传输的示例数据。
图15是用于接受、解释和传输用户输入的另一示例系统的图。
图16是关于用户及其相关乐器的几个示例区的图。
图17是关于用户及其相关乐器的几个额外的示例区的图。
图18示出示例主处理器的各种功能。
图19示出示例移动应用的各种功能。
具体实施方式
概括地,技术的实现包括允许多个用户与其他用户共享关于他们自己、他们的兴趣和他们的媒体内容的信息的系统。在示例实现中,用户可使用个人电子设备(例如计算机、媒体播放器、蜂窝电话、平板计算机或其它电子设备)来输入关于他自己和他的兴趣的信息。例如,用户可输入他的名字和他的个人兴趣(例如音乐、电影、TV、视频游戏、书籍、运动、爱好、名人和其它兴趣)。用户也可使用设备来消费媒体,例如以听音乐、看电影和电视节目、读书、查看图像等。用户也可使用设备来执行其它活动,例如播放视频游戏、拍摄照片、作曲和演奏音乐、创建视频或创建其它内容(例如写字、画图等)。
关于用户和他的兴趣和活动的信息可与其他用户共享,使得其他用户能够在用户的体验中共享。在一些实现中,在用户之间共享信息可包括在用户之间直接发送内容;例如在一些情况下,用户可向其他用户传输他正在听的歌曲,使得其他用户也可以听该歌曲。在一些实现中,在用户之间共享信息可包括在用户之间间接地发送内容;例如在一些情况下,用户可向其他用户传输关于他正在听的歌曲的元数据,使得其他用户可独立地获取那首歌曲并听该歌曲。以这种方式,用户可直接或间接地与其他用户共享信息和内容。
在一些实现中,用户可使用控制设备而非他的个人电子设备来向系统输入信息和命令。例如,在一些实现中,可结合个人电子设备来使用控制设备,其允许用户控制计算设备的操作而没有直接操纵个人电子设备本身。在示例实现中,可从音频输出设备(例如头戴式耳机、扬声器、耳塞或扬声器电缆)、视频输出设备(例如屏幕或监控器、平视显示器或支持视频的眼镜或面罩或其它便携式视频输出设备)或甚至与个人电子设备不相关联的远程输入设备(例如方向盘、仪表板、视觉或音频信息亭、乐器等)来控制个人电子设备。
将输入从交互式输出设备或远程输入设备提供到个人电子设备允许用户以更方便的方式与个人电子设备交互。例如,用户可使用控制设备来与个人电子设备交互而不是首先必须从存储位置(例如衣服口袋、手提袋、支持支架、臂带等)移除个人电子设备。以这种方式,用户可使用控制设备来操作个人电子设备而不使个人电子设备暴露于由于不正确操纵或环境因素而引起的潜在损坏。用户也可使用控制设备来操作不容易接近的个人电子设备,例如固定在机壳或保护壳体中或内置到固定外壳内的设备(例如家庭音频系统或在车辆中的媒体系统)。
在另一例子中,用户可使用控制设备来与个人电子设备交互而不必看该控制设备或个人电子设备。以这种方式,用户可在参与其它活动时使用个人电子设备,该活动例如行走、跑步、读书、驾驶或任何其它活动,其中在这些活动中转移一个人的注意力是不期望的。此外,用户可使用控制设备来简化个人电子设备的特定任务,使得用户可在控制设备上使用相对简单的输入来向个人电子设备发出复杂的指令。例如,在一些实现中,用户可共享或“喜欢”内容,例如在移动电话上播放和经由输出设备(例如头戴式耳机)输送给用户的音乐记录,其中头戴式耳机包括输入部件,使得用户可通过在头戴送受话器上的输入设备的简单操纵来在社交网络上与其他用户交流对音乐文件的偏好。
在图1中示出用于接受、解释和传输用户输入的示例系统。在这个例子中,系统输入了输入接口模块、模数转换模块、微控制器模块、主处理单元、蓝牙模块和移动设备应用。
输入接口模块包括从用户接收输入的一个或多个部件。例如,输入接口模块可包括可检测用户的触摸的一个或多个触敏元件(例如电容传感元件)。也可使用其它触敏元件,例如电阻传感元件。在一些实现中,输入接口模块还可包括诸如按钮、开关、转盘、控制杆的部件和可由用户物理地操纵的其它部件。在一些实现中,输入接口模块的部分可由保护层或外壳(例如玻璃、金属或塑料的层或外壳)保护。例如,几个电容传感元件可由玻璃板保护,以便保护传感元件免于损坏。
输入接口模块检测来自用户的以模拟电信号的形式的输入。这些电信号可转换(例如“变换”)成数字信息,使得它们可以更容易地由数字电气设备解释。在一些实现中,这由接受模拟信号(例如模拟电波形)并将它们转换成数字信息(例如二进制信息)的模数转换模块执行。
数字化信息传输到微控制器用于解释。微控制器可例如分析数字化信息,以便确定由用户在输入接口模块上做出的特定手势。例如,用户可触摸在特定图案中的输入接口模块(例如通过从触敏元件的底部向上滑动到顶部、通过从触敏元件的左边向左滑动到右边、或通过点击在触敏元件上的特定图案例如“Z”)。用户也可在特定长度的时间期间触摸输入接口模块(例如短暂地触摸该触摸接口模块或保持他的针对触摸接口模块的触摸)。微控制器接收描述这个交互的数字化信息(例如,描述位置、时间、力和运动的信息),并识别手势(例如方向相关滑动、位置相关触摸、位置相关保持等)。
关于所识别的手势的信息被传输到主处理单元。主处理单元将手势信息与由设备的其它部件产生的其它信息集成在一起,并创建数据分组。例如,如果所示系统是配备有传感器的头戴式耳机(或其它音频重放设备)的一部分,则头戴式耳机可产生信息,例如数字音频数据(例如来自内置麦克风)、传感器信息(例如来自加速度计、陀螺仪、罗盘和/或近程传感器)、功率信息(例如电池状态)和其它信息。这个信息连同手势信息一起被集成到一个或多个数据分组内。每个数据分组不需要包括所有可用信息。例如,在一些情况下,数据分组可以只包括信息的一部分(例如仅关于触摸手势的信息)。此外,可用信息可散布在几个数据分组之上;例如,数字音频数据可分成几个不同的部分并被包括在多个数据分组中。
数据分组被传输到移动设备应用。例如,在一些实现中,可经由蓝牙模块传输数据分组,蓝牙模块使用蓝牙通信协议在系统和移动设备之间发送并接收数据。虽然在图1中示出蓝牙模块,这仅仅是个例子。在一些实现中,可使用其它部件例如使用Wi-Fi无线电装置、蜂窝无线电装置、红外收发机、有线连接或其它通信设备来传输数据分组。
如上所述,微控制器模块分析相应于用户与输入接口模块的交互的数字化信息,以便识别由用户做出的特定手势。这可以用各种方式来执行。在图2中示出示例技术。在这里,微控制器接收相应于用户与输入接口模块的交互的数字化数据。因为用户可在一段时间期间与输入接口模块交互(例如在一段时间期间保持触摸、在一段时间内滑动或在一段时间内交互),数字化数据可相应地在一段时间内被接收。当自从最后的数据被接收到以来的某段时间过去(例如“超时时间”过去)时,微控制器确定交互事件结束并解释为那个交互事件接收的数字化数据。
如果微控制器模块确定用户在超过特定阈值量的时间的一段时间期间触摸传感元件,则微控制器确定“保持”手势被执行。微控制器模块然后识别传感元件的被触摸的部分(例如前面、后面、顶部、底部等),并识别适当的手势(例如“前面保持”、“后面保持”、“向上保持”和“向下保持”)。
如果微控制器模块确定用户在不超过特定阈值量的时间的一段时间期间触摸传感元件,则微控制器确定“保持”手势未被执行。微控制器模块然后确定另一类型的手势是否被执行。例如,微控制器可确定数字化信息是否对应于方向相关滑动(例如“向前滑动”、“向后滑动”、“向上滑动”或“向下滑动”)。虽然在图2中示出示例手势,这仅仅是例证性例子。实际上,不同的技术可用于检测除了或代替所示出的那些手势以外的其它手势。
在图1所示的例子中,来自触敏元件的信息由系统收集并解释,且手势信息被传输到其它设备。然而,这不仅仅限于手势信息。例如,参考图3,在一些实现中,系统可收集并解释关于系统与用户的接近度的信息。例如,系统可包括检测设备何时与用户接近的近程传感器(例如模拟天线、压力传感器、红外传感器或其他这样的传感器)。在一些情况下,从传感器输出的信息可以是模拟信号的形式。这些模拟信号可以用与如上所讨论的类似的方式转换成数字信息(例如使用模数转换模块)。同样,这个数字化信息可由微控制器模块解释。例如,微控制器模块可基于数字化信息来确定系统是否与用户(例如用户的耳朵)接近或远离用户(例如远离用户的耳朵)。以如上的类似方式,这个接近度信息可以用如上所讨论的类似方式传输到其它设备(例如移动设备应用)。
在一些实现中,微控制器模块也可基于接近度选择特定的命令。例如在头戴式耳机的情况下,如果微控制器模块确定系统与用户接近,则微控制器可选择“播放音乐”命令,使得音乐被播放给用户。如果微控制器模块确定系统不与用户接近,则微控制器可选择“暂停音乐”命令,使得音乐播放被暂停。虽然示出示例命令,这些仅仅是例子,且除了或代替上面所述的那些命令以外的其它命令也是可能的。以如上的类似方式,这些命令可以用如上所讨论的类似方式传输到其它设备(例如移动设备应用)。
如上面讨论的,在一些情况下,系统可收集额外的传感器,例如来自加速度计、陀螺仪和/或罗盘的传感器数据。参考图4,可从主处理单元的这些传感器中的一个或多个传输传感器信息用于集成到数据分组内。在图4所示的例子中,传感器的输出是数字数据,并可直接传输到主处理单元。在这些传感器输出模拟数据的实现中,模拟数据可首先传输到模数转换模块并以如上所讨论的类似方式转换成数字化信息。
如上面讨论的,在一些实现中,系统可以是头戴式耳机或其它音频重放设备的一部分。例如,参考图5,系统可包括提供音频重放或音频记录能力的一个或多个部件。例如,系统可包括记录音频的一个或多个麦克风和将由麦克风记录的模拟音频信息转换成数字化信息的一个或多个模数转换器。这个数字化信息可传输到主处理单元用于进一步处理。例如,主处理单元可执行数字信号处理和噪声消除以提高、增强或以其他方式改变记录。在处理之后,对应于记录的数字化信息可集成到数据分组内(例如,如上所述)和/或传输到一个或多个扬声器用于重放。例如,数字化信息可传输到一个或多个数字音频转换器(DAC),且所转换的音频信息可传输到一个或多个扬声器用于向用户重放。
如上所述,主处理单元将信息(例如手势信息、传感器信息和其它信息)集成到一个或多个数据分组内。在图6中概念地示出示例数据分组。如图6所示,数据分组可包括数字音频信息(例如对应于由麦克风记录的音频)、由微控制器模块确定的手势信息、传感器信息(例如加速度计、陀螺仪、罗盘和接近度数据)、电池状态信息和其它信息(例如内置测试状态和诊断信息)。如上面讨论的,每个数据分组不需要包括所有可用信息。例如,在一些情况下,数据分组可以只包括信息的一部分(例如仅关于触摸手势的信息)。此外,可用信息可散布在几个数据分组之上;例如数字音频数据可分成几个不同的部分并被包括在多个数据分组中。仍然进一步地,虽然上面示出数据分组的示例内容,这仅仅是例子。实际上,数据分组可包括除了或代替上面所述的信息以外的其它信息。
在一些实现中,系统还可接收数据分组。参考图7,作为例子,所接收的数据分组可包括来自所连接的设备(例如移动设备应用)的数字音频数据。系统可处理所接收的数字音频数据(例如使用主处理单元),将数字音频数据转换成模拟信号(例如使用DAC),并使用一个或多个扬声器重放模拟音频。作为另一例子,所接收的数据分组可包括固件或软件更新,以便更新在系统上实现的固件或软件。以这种方式,系统的操作可被修改并随着时间的过去而改进。
在图7所示的例子中,系统可接收数字音频数据,将数字音频数据转换成模拟信号,并重放音频。在一些实现中,系统可直接接受模拟音频用于由扬声器重放。例如,参考图8,设备可接受模拟输入(例如从模拟输入接口)并使用一个或多个扬声器直接播放音频。
在图5所示的例子中,系统可从麦克风接收模拟信号,将模拟信号转换成数字化信息,并传输数字化信息作为数据分组的一部分。在一些实现中,系统可直接输出对应于由麦克风记录的音频的模拟信号。例如,参考图8,由麦克风输出的模拟信号可通过模拟输出接口直接输出。
可以用各种方式使用由移动设备应用接收的数据分组。在一些实现中,由移动设备应用接收的数据分组可“转换”成对移动设备应用适当的相应命令。例如,参考图9,如果移动设备应用包括音频重放功能(例如媒体播放器),则移动设备应用可将数据分组中的手势信息转换成媒体重放相关功能。例如,向前滑动可转换成“下一音轨”命令,向后滑动可转换成“前一音轨”命令,依此类推。未由那个特定的移动设备使用的命令可被忽略、丢弃或传递到其它应用。此外,虽然在图9中示出示例分组转换,这仅仅是例子。其它命令可与每个手势相关,这取决于实现。此外,虽然在图9中示出示例音频重放应用,这也仅仅是例子。也可结合分组转换来使用其它类型的应用和功能。在一些实现中,分组转换可被包括作为软件开发工具包(SDK)的一部分,软件开发工具包给开发者提供用于构建能够解释数据分组并将它们转换成命令的标准化工具。
如上所述,在一些实现中,输入接口模块可包括除了触敏元件、按钮、开关、转盘、控制杆以外的一个或多个部件和可由用户物理地操纵的其它部件。这些部件中的每个可与一个或多个命令相关,使得用户可执行各种任务。例如,系统可包括允许用户控制系统功率和/或同步的按钮。根据用户按下按钮的特定模式,系统可执行不同的任务。在图10中示出这些操作的例子。虽然在图10中示出示例图案和任务,这些仅仅是例子。实际上,其它组合和任务也是可能的。此外,多个按钮和/或其它部件也可用于控制系统的各种方面。
如上所述,在一些实现中,系统可允许多个用户与其它用户共享关于他们自己、他们的兴趣和他们的媒体的信息。这可以用各种方式来执行。例如,参考图11A,系统可包括多个客户端设备,每个具有相应的移动应用。这些客户端设备中的每个可以例如是个人电子设备,例如蜂窝电话、平板计算机、媒体播放器、个人计算机等。在这里,使用第一客户端设备的用户想要与其他用户共享关于他自己、他的兴趣和他的媒体内容的信息。在一些实现中,所共享的信息包括关于特定的媒体内容项目的信息(例如元数据)。例如,第一客户端可表明他喜爱特定的歌曲、电影或电视节目,或他当前正观看特定的歌曲、电影或电视节目。这个信息从第一客户端设备传输到服务器(例如“云”服务器),服务器接受所传输的数据并存储它用于进一步取回。在一些实现中,服务器可以是给用户提供用于存储信息的个人账户的服务的一部分。这个信息也可传输到社交媒体服务器(例如由Facebook、Twitter、Google+等操作的服务器)。可通过网络例如WAN(例如互联网)、LAN(例如以太网或Wi-Fi网络)或任何其它有线或无线网络传输信息。
参考图11B,可与第二客户端共享由第一客户端传输的信息。例如,由第一客户端共享的信息可从服务器和/或社交媒体服务器传输到第二客户端设备的移动应用。在一些实现中,第二客户端可自由地接收由第一客户端共享的数据。在一些实现中,第二客户端必须首先接收许可以接收由第一客户端共享的数据,使得第一客户端的隐私被控制。
参考图11C,基于所接收的信息,第二客户端可请求媒体内容项目。例如,如果第一客户端共享关于他正在听的特定歌曲的信息,则第二客户端可从媒体源请求那个媒体内容项目。作为例子,如果关于歌曲的信息被共享,则媒体源可包括内容店铺(例如iTunes、Google Music等)或内容流媒体服务(例如Rdio、Spotify、Pandora等)。参考图11D,可接着从移动应用的媒体源传输所请求的媒体。
上述系统的实现可用于在几个不同的用户之间共享信息。例如,用户可与他们的移动应用交互,以便重放媒体内容项,推荐他们喜爱的内容项,并与其他用户共享他们的当前活动。用户也可从其他用户接收共享的信息,请求由其他用户推荐的内容项,并重放所请求的内容项。当基于元数据通过媒体源请求内容项时,内容项本身不需要在用户之间传输。这允许用户快速和合法地与其他用户共享内容项。然而在一些实现中,内容项可在用户之间传输;例如在一些情况下,内容项可从每个客户端传输到服务器和/或社交媒体服务器或直接到另一客户端。
参考图11A-B,可在客户端和服务器之间交换各种用户和/或媒体信息。例如,参考图2,这个信息可包括用户名和密码(例如与特定用户在服务器上的账户相关)和简介信息(例如关于用户的信息,例如他的识别信息、位置、兴趣、联系信息等)。这个信息还可包括关于一个或多个媒体内容项的信息,例如用户喜爱的歌曲或其它媒体内容项和播放列表。这个信息可以以识别内容项(例如标题、专辑名称、种类、发行年份等)的元数据的形式传输而不传输内容本身。这个信息还可包括社交媒体相关信息,例如用户正在社交媒体平台上共享关于内容项的信息的指示。这个信息可包括一个或多个用户连接(例如“朋友”或用户希望与之共享信息的其他用户)。这个信息还可包括用户的位置(例如GPS或地理标记的事件)。
再次参考图11A-B,可在客户端和社交媒体服务器之间交换各种用户和/或媒体信息。例如,参考图13,这个信息可包括关于一个或多个媒体内容项的信息,例如用户喜爱的歌曲或其它媒体内容项和播放列表。这个信息还可包括指示,以在社交媒体服务器上共享关于内容项的信息。这个信息可以以识别内容项的元数据的形式传输。这个信息还可包括图像和缩略图(例如专辑艺术)、相关链接(例如到相关网站的链接)。
参考图11C-D,客户端可从媒体源请求和接收媒体内容项,使得媒体内容项不需要在客户端之间直接传输。参考图14,在移动应用和媒体源之间的信息交换可包括用户信息(例如与源相关的用户的账户信息)、媒体内容项的部分(例如歌曲的片段或试演)、整个媒体内容项(例如完整的歌曲)、关于用户喜爱的媒体内容项的信息和播放列表。
虽然在图12-14中示出示例信息,这些只意欲作为例证性例子。实际上,可在每个客户端设备、服务器和社交媒体服务器之间交换除了或代替上面所述的信息以外的其它信息。此外,虽然上面只示出两个客户端设备、单个服务器、单个社交媒体服务器和单个媒体源,实际上,系统可包括任何数量的客户端、服务器、社交媒体服务器和媒体源。
参考图1-6,在音频重放设备(例如头戴式耳机)的上下文中描述用于接受、解释和传输用户输入的示例系统。系统的实现可被实现为其它设备,例如音频输入设备、汽车媒体播放器、仪表板、视觉或音频信息亭、音乐乐器等的一部分。例如,参考图15,用于接受、解释和传输用户输入的系统可被实现为电子架子鼓的一部分。
在示例实现中,电子架子鼓包括一个或多个鼓槌(例如左和右鼓槌)和一个或多个脚蹬带(例如左和右脚蹬带)。鼓槌和脚蹬带中的每个包括传感器,例如加速度计、陀螺仪和电子罗盘。鼓槌和脚蹬带中的每个还包括连接到传感器、指示器LED、无线网络模块和触觉反馈模块的主处理器。鼓槌和脚蹬带中的每个无线地连接到移动应用。
以如上面所述的类似方式,鼓槌和脚蹬带可将数字数据集成到一个或多个数据分组内,然后使用无线网络模块将数据分组传输到移动应用。例如,来自加速度计、陀螺仪和电子罗盘的传感器数据可传输到主处理器,其将传感器数据集成到一个或多个数据分组内。这些数据分组传输到无线网络模块,其将数据分组无线地传输到移动应用。
在示例使用中,用户将鼓槌握在每只手中,并将脚蹬带放置在每个脚上。用户然后以模仿玩架子鼓的方式在他周围移动鼓槌和他的脚。例如,用户可在他的前面挥动鼓槌,以便模仿玩特定类型的鼓。作为另一例子,用户可将鼓槌挥动到他的侧面,以便模仿玩不同类型的鼓。作为又一例子,用户可在特定的方向上移动他的脚,以便模仿玩特定类型的脚踏板激活的鼓。作为再一例子,用户可在另一方向上移动他的脚,以便模仿玩不同类型的脚踏板激活的鼓。当用户移动鼓槌和他的脚时,在鼓槌和脚蹬带中的传感器检测关于设备的加速度、方位和移动的信息。这个信息用于确定鼓槌和脚蹬带中的每个的运动和它们关于用户的相应位置。这个信息传输到移动应用。基于鼓槌和脚蹬带中的每个的位置和运动,移动应用重放适当的音频,以便模仿特定的鼓的打击,并在适当的音量水平处以便模仿鼓被打击所用的力。当用户继续移动鼓槌和他的脚时,移动应用继续重放相应的音频,从而模仿正被玩的架子鼓。
作为例子,参考图16,在用户周围的区可基于相对于特定方向的偏差角分成几个不同的区。例如,如果0°是用户的正前方向,275°-0°可以与第一类型的鼓(例如小军鼓)关联,0-45°可以与一个不同类型的鼓(例如高帽子鼓)关联,45°-90°可以与一个不同类型的鼓(例如落地鼓)关联,等等。基于在每个鼓槌中的传感器信息,移动应用可检测与播放音频相关的运动(例如“打击”运动),识别鼓槌被移动于的区,并播放适当的声音。
不同组的乐器可与鼓槌和脚蹬带中的每个相关。例如,虽然区275°到0°可与针对鼓槌的小军鼓相关,参考图17,区275°到0°可与针对脚蹬带的悬挂筒鼓相关。类似地,不同的乐器可被分配到每个区。以这种方式,鼓槌和/或脚蹬带中的每个可与不同组的乐器相关,取决于实现。
虽然在图16-17中示出示例乐器和区,但这些仅仅是例子。实际上,可以用任何数量的不同方式划分在用户周围的区,且每个区可与多个不同乐器中的任一个相关。
在一些实现中,移动应用可连接到音频重放设备,例如扬声器、头戴式耳机或计算机。以这种方式,被模仿的鼓音频可由用户听到和/或被记录用于未来重放。在一些实现中,移动应用记录播放(例如作为声音文件或作为音符序列),使得用户的演奏可在未来被重放。在一些实现中,移动应用允许用户选择不同的被模仿的乐器。例如,用户可选择不同类型的鼓或完全不同类型的乐器。在一些实现中,移动应用允许用户与其他用户共享播放(例如通过将所存储的播放传输到服务器或直接传输到其他用户)。
如上所述,当用户移动鼓槌和他的脚时,在鼓槌和脚蹬带中的传感器检测关于设备的加速度、方位和运动的信息。这个信息用于确定鼓槌和脚蹬带中的每个的运动和它们各自在用户周围的位置。在一些实现中,这个确定可由主处理器执行。例如,参考图18,在一些实现中,主处理器从加速度计、陀螺仪和电子罗盘接收传感器数据。基于这个信息(例如电子罗盘和陀螺仪),主处理器可确定设备相对于用户的位置(例如相对于用户的前方的角度)。基于这个信息(例如加速度计和陀螺仪),主处理器也可确定设备的运动是否对应于重放音频(例如“打击”运动)。基于这个信息(例如加速度计和陀螺仪),主处理器也可确定设备的运动的力。这些信息被集成为数据分组,然后传输到无线网络模块用于传输到移动应用。例如,如图16所示,数据分组可包括设备标识(例如鼓槌或脚蹬带中的特定鼓槌或脚蹬带)、位置(例如相对于用户的前方的特定角度)、力强度(例如表示力的程度的整数值)和指示设备何时移动的时间戳。
在一些实现中,设备还可基于力强度产生触觉反馈。例如,如果用户以特别高程度的力挥动鼓槌,则鼓槌可强烈地振动以模仿非常坚定地击鼓。作为另一例子,如果用户以较低程度的力挥动鼓槌,则鼓槌可更弱地振动以模仿更柔和地击鼓。
在一些实现中,主处理器还可点亮指示器LED以将信息中继给用户(例如所选择的乐器的类型、设备的功率状态等)。
如上所述,来自鼓槌和脚蹬带的信息传输到移动应用。基于鼓槌和脚蹬带中的每个的位置和运动,移动应用播放适当的音频,以便模仿特定鼓的打击,且在适当的音量水平处以便模仿鼓被打击所用的力。参考图19,移动应用可使用本机扬声器(例如内置到运行移动应用的设备内的扬声器)、音频插孔(例如3.5mm插孔)或一对头戴式耳机或扬声器的蓝牙模块来播放音频。此外,在一些实现中,移动应用可允许用户对每个区选择不同类型的鼓或完全不同类型的乐器。在一些实现中,移动应用允许用户与其他用户共享播放(例如通过将所存储的播放传输到服务器或直接传输到其他用户),与其他用户流式传送实况播放(例如通过将实况播放传输到其他用户,使得多个可彼此同时播放),交换乐器配置,并设计和交换定制声音。
在这里所述的实现不限于头戴式耳机,而是可合并到软件狗或其它外部输入设备内。创建分层内容并经由输入到远程设备内的命令与在基本设备上寄载的程序和内容交互的方法可在音频设备或头戴式耳机/视频组合中实现。
在这个说明书中所述的操作可被实现为由数据处理装置对存储在一个或多个计算机可读存储设备上的或从其它源接收的数据执行的操作。
术语“数据处理装置”涵盖用于处理数据的所有的装置、设备和机器,作为例子包括可编程处理器、计算机、片上系统或前述部件的多个或组合。装置可包括专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。装置除了硬件以外也可包括为讨论中的计算机程序创建执行环境的代码,例如构成处理器固件、协议堆栈、数据库管理系统、操作系统、交叉平台运行时间环境、虚拟机或它们的一个或多个的组合的代码。装置和执行环境可实现各种不同的计算模型基础设施,例如web服务、分布式计算和网格计算基础设施。
计算机程序(也被称为程序、软件、软件应用、脚本或代码)可以用任何形式的编程语言——包括编译或解释语言、说明性或过程语言——编写,且它可以任何形式被使用,包括作为独立程序或作为模块、部件、子例程、对象或适合于在计算环境中使用的其它单元。计算机程序可以但不需要对应于在文件系统中的文件。程序可存储在保存其它程序或数据(例如存储在标记语言文档中的一个或多个脚本)的文件的一部分中、在专用于讨论中的程序的单个文件中或在多个协调文件(例如存储一个或多个模块、子程序或代码的部分的文件)中。计算机程序可被部署以在一个计算机上或在位于一个站点或分布在多个站点中并由通信网络互连的多个计算机上被执行。
在本说明书中描述的过程和逻辑流程可由执行一个或多个计算机程序以通过对输入数据操作并产生输出来执行行动的一个或多个可编程处理器执行。过程和逻辑流程也可由专用逻辑电路例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)执行,且装置可被实现为专用逻辑电路例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。
适合于执行计算机程序的处理器可例如包括通用和专用微处理器和任何类型的数字计算机的任一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或这两者接收指令和数据。计算机的基本元件是用于根据指令执行行动的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机也将包括用于存储数据的一个或多个大容量存储设备例如磁盘、磁光盘或光盘,或可有效地耦合成从用于存储数据的一个或多个大容量存储设备(例如磁盘、磁光盘或光盘)接收数据或将数据传送到用于存储数据的一个或多个大容量存储设备(例如磁盘、磁光盘或光盘),或这两者。然而,计算机不是必须具有这样的设备。而且,计算机可嵌入另一设备例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏控制台、全球定位系统(GPS)接受机或便携式存储设备(例如通用串行总线(USB)闪存驱动器)中,仅举几个例子。适合于存储计算机程序指令和数据的设备包括所有形式的非易失性存储器、介质和存储器设备,作为例子包括半导体存储器设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内部硬盘或可移动盘;磁光盘;以及CD-ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充并合并在专用逻辑电路中。
为了提供与用户的交互,在本说明书中描述的主题的实施方式可在具有用于向用户显示信息的显示设备(例如CRT(阴极射线管)、LCD(液晶显示器)监视器)和用户可用来向计算机提供输入的键盘和指示设备(例如鼠标、轨迹球等)的计算机上实现。其它类型的设备也可用于提供与用户的交互;例如,被提供给用户的反馈可以是任何形式的感官反馈,例如视觉反馈、听觉反馈或触觉反馈;且来自用户的输入可以以任何形式——包括声音、语音或触觉输入——被接收。此外,计算机可通过将文档发送到用户所使用的设备并从用户所使用的设备接收文档来与用户交互;例如通过响应于从web浏览器接收的请求将网页发送到在用户的客户端设备上的web浏览器。
在本说明书中描述的主题的实现可在计算系统中实现,计算系统包括后端部件,例如作为数据服务器,或包括中间件部件,例如应用服务器,或包括前端部件,例如具有图形用户界面或Web浏览器(用户可通过图形用户界面或Web浏览器与在本说明书中描述的主题的实现交互)的客户端计算机,或一个或多个这样的后端、中间件或前端部件的任何组合。系统的部件可由数字数据通信的任何形式或介质(例如通信网络)互连。通信网络的例子包括局域网(“LAN”)和广域网(“WAM”)、网络间(例如互联网)和对等网络(例如特定对等网络)。
计算系统可包括客户端和服务器。客户端和服务器通常远离彼此,并一般通过通信网络进行交互。客户端和服务器的关系借助于在相应的计算机上运行的计算机程序并具有与彼此的客户端-服务器关系来产生。在一些实施方式中,服务器将数据(例如HTML页面)传输到客户端设备(例如为了向客户端设备显示数据并从与客户端设备交互的用户接收用户数据的目的)。可在服务器处从客户端设备接收在客户端设备处产生的数据(例如用户交互的结果)。
虽然本说明书包含很多特定的实现细节,这些不应被解释为对任何发明或可被主张的内容的范围的限制,而更确切地作为一个或多个示例实现的特征的描述。在本说明书中在不同的实施方式的上下文中描述的某些特征也可组合在单个实施方式中来实现。相反,也可在多个实施方式中单独地或以任何适当的子组合实现在单个实施方式的上下文中描述的各种特征。而且,虽然特征在上面被描述为在某些组合中起作用且甚至最初如上所说被主张,来自所主张的组合的一个或多个特征可在一些情况下从组合删除,且所主张的组合可指向子组合或子组合的变形。
类似地,虽然在附图中以特定的顺序描了操作,这不应被理解为要求这样的操作以所示的特定顺序或以连续顺序执行或所有所示的操作被执行来实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。而且,在上面描述的实施方式中的各种系统部件的分离不应被理解为在所有实施方式中都要求这样的分离,以及应理解,所描述的程序部件和系统可通常一起集成在单个软件产品或封装到多个软件产品中。
因此,描述了主题的特定实施方式。其它实施方式在所附的权利要求的范围内。在一些情况下,在权利要求中列举出的行动可以用不同的顺序被执行且仍然实现期望的结果。此外,在附图中描绘的过程并不一定需要所示的特定顺序或连续顺序来实现期望的结果。在某些实现中,可利用多任务或并行处理。

Claims (5)

1.一种在两个用户之间共享内容的计算机实现的方法,包括下列步骤:
a.将内容传输到用户的头戴式耳机,其中所述内容包括识别元数据;
b.在与所述头戴式耳机相关联的触控板上通过手势指示与所述内容有关的用户偏好;
c.将所述用户偏好从所述头戴式耳机传输到移动设备;
d.在所述移动设备处接收所述用户偏好并使所述用户偏好与识别元数据的所述内容相关联;
e.将所述用户偏好和识别元数据的所述内容传输到社交网络。
2.如权利要求1所述的计算机实现的方法,其中在所述触控板上的所述手势包括在所述触控板上的滑动、在所述触控板上的轻叩、在所述触控板上的多手指触摸、在所述触控板上的滑动和保持、在所述触控板上在多于一个方向上的滑动或在多于一个位置上与所述触控板的接触。
3.如权利要求1所述的计算机实现的方法,其中在所述触控板上的所述手势与指示用户偏好的一个或多个命令相关联,所述用户偏好包括共享、指示爱好、指示地理位置、指示评级、指示购买的命令或赠送所述内容的命令。
4.如权利要求1所述的计算机实现的方法,其中所述手势的指示在所述移动设备处被接收,并且来自所述手势的所述输入被转换成与正在所述头戴式耳机上播放的所述内容有关的特定用户偏好。
5.如权利要求1所述的计算机实现的方法,其中所述手势的指示由所述移动设备转换以产生与连接到网络的一个或多个用户共享识别在所述头戴式耳机上播放的所述内容的所述元数据的命令。
CN201580067550.8A 2014-10-10 2015-10-09 用于共享用户交互的设备 Pending CN107210950A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462062672P 2014-10-10 2014-10-10
US62/062672 2014-10-10
PCT/US2015/054973 WO2016057943A1 (en) 2014-10-10 2015-10-09 Devices for sharing user interactions

Publications (1)

Publication Number Publication Date
CN107210950A true CN107210950A (zh) 2017-09-26

Family

ID=55653865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580067550.8A Pending CN107210950A (zh) 2014-10-10 2015-10-09 用于共享用户交互的设备

Country Status (4)

Country Link
US (3) US10088921B2 (zh)
JP (2) JP2017534132A (zh)
CN (1) CN107210950A (zh)
WO (1) WO2016057943A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170031525A1 (en) 2010-05-14 2017-02-02 Racing Optics, Inc. Touch screen shield
US9295297B2 (en) 2014-06-17 2016-03-29 Racing Optics, Inc. Adhesive mountable stack of removable layers
US11283742B2 (en) * 2016-09-27 2022-03-22 Bragi GmbH Audio-based social media platform
EP3738116A1 (en) 2018-01-10 2020-11-18 Qrs Music Technologies, Inc. Musical activity system
WO2020160492A1 (en) 2019-02-01 2020-08-06 Racing Optics, Inc. Thermoform windshield stack with integrated formable mold
US11846788B2 (en) 2019-02-01 2023-12-19 Racing Optics, Inc. Thermoform windshield stack with integrated formable mold
US11947869B2 (en) 2019-04-01 2024-04-02 Sony Group Corporation Information processing device, information processing method, and program
US11364715B2 (en) 2019-05-21 2022-06-21 Racing Optics, Inc. Polymer safety glazing for vehicles
JP7188337B2 (ja) * 2019-09-24 2022-12-13 カシオ計算機株式会社 サーバ装置、演奏支援方法、プログラム、および情報提供システム
US11648723B2 (en) 2019-12-03 2023-05-16 Racing Optics, Inc. Method and apparatus for reducing non-normal incidence distortion in glazing films
US11548356B2 (en) 2020-03-10 2023-01-10 Racing Optics, Inc. Protective barrier for safety glazing
KR102273759B1 (ko) * 2021-01-27 2021-07-06 안중영 기록매체에 저장된 동작신호 전달 어플리케이션 프로그램 및 이를 이용한 동작신호 전달 시스템
US11490667B1 (en) 2021-06-08 2022-11-08 Racing Optics, Inc. Low haze UV blocking removable lens stack
US11307329B1 (en) 2021-07-27 2022-04-19 Racing Optics, Inc. Low reflectance removable lens stack
US11709296B2 (en) 2021-07-27 2023-07-25 Racing Optics, Inc. Low reflectance removable lens stack
US11882166B2 (en) * 2021-11-17 2024-01-23 Lemon Inc. Methods, systems and storage media for generating an effect configured by one or more network connected devices
US11933943B2 (en) 2022-06-06 2024-03-19 Laminated Film Llc Stack of sterile peelable lenses with low creep
US11808952B1 (en) 2022-09-26 2023-11-07 Racing Optics, Inc. Low static optical removable lens stack

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6700986B2 (en) * 2001-05-14 2004-03-02 Vertex Standard Co., Ltd. Microphone characteristic adjustment device
CN102270043A (zh) * 2010-06-23 2011-12-07 微软公司 协调设备交互来增强用户体验
CN203164614U (zh) * 2013-03-05 2013-08-28 成名 一种多用手表
US20130339850A1 (en) * 2012-06-15 2013-12-19 Muzik LLC Interactive input device

Family Cites Families (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880743A (en) 1995-01-24 1999-03-09 Xerox Corporation Apparatus and method for implementing visual animation illustrating results of interactive editing operations
JPH08305663A (ja) 1995-04-28 1996-11-22 Hitachi Ltd 共同作業支援システム
US6057845A (en) 1997-11-14 2000-05-02 Sensiva, Inc. System, method, and apparatus for generation and recognizing universal commands
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6956562B1 (en) 2000-05-16 2005-10-18 Palmsource, Inc. Method for controlling a handheld computer by entering commands onto a displayed feature of the handheld computer
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US7202861B2 (en) 2001-06-25 2007-04-10 Anoto Ab Control of a unit provided with a processor
AUPR956901A0 (en) 2001-12-17 2002-01-24 Jayaratne, Neville Real time translator
US7356564B2 (en) * 2002-01-09 2008-04-08 At&T Delaware Intellectual Property, Inc. Method, system, and apparatus for providing self-destructing electronic mail messages
US20030140769A1 (en) * 2002-01-30 2003-07-31 Muzik Works Technologies Inc. Method and system for creating and performing music electronically via a communications network
US20040145574A1 (en) 2003-01-29 2004-07-29 Xin Zhen Li Invoking applications by scribing an indicium on a touch screen
KR20040083788A (ko) 2003-03-25 2004-10-06 삼성전자주식회사 제스쳐 커맨드를 이용하여 프로그램을 구동시킬 수 있는휴대용 단말기 및 이를 이용한 프로그램 구동 방법
EP1618759A1 (en) 2003-04-18 2006-01-25 Koninklijke Philips Electronics N.V. Personal audio system with earpiece remote controller
WO2005003944A1 (en) 2003-07-01 2005-01-13 Nokia Corporation Method and device for operating a user-input area on an electronic display device
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7774411B2 (en) * 2003-12-12 2010-08-10 Wisys Technology Foundation, Inc. Secure electronic message transport protocol
US7653816B2 (en) * 2003-12-30 2010-01-26 First Information Systems, Llc E-mail certification service
US7365736B2 (en) 2004-03-23 2008-04-29 Fujitsu Limited Customizable gesture mappings for motion controlled handheld devices
US7176888B2 (en) 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
US8448083B1 (en) 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
CN1874613A (zh) * 2005-03-25 2006-12-06 南承铉 使用电容传感器的自动控制耳机系统
JP2006301683A (ja) * 2005-04-15 2006-11-02 Media Socket:Kk 電子コミュニケーション処理装置および方法
US8331603B2 (en) 2005-06-03 2012-12-11 Nokia Corporation Headset
US8266219B2 (en) * 2005-07-20 2012-09-11 Research In Motion Limited Method and system for instant messaging conversation security
US7610345B2 (en) * 2005-07-28 2009-10-27 Vaporstream Incorporated Reduced traceability electronic message system and method
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
NZ566533A (en) 2005-09-16 2010-11-26 Janssen Pharmaceutica Nv Cyclopropyl amines as modulators of the histamine H3 receptor
JP2007109118A (ja) 2005-10-17 2007-04-26 Hitachi Ltd 入力指示処理装置および入力指示処理プログラム
US8073137B2 (en) * 2006-03-06 2011-12-06 Sony Ericsson Mobile Communications Ab Audio headset
US8094673B2 (en) * 2006-04-10 2012-01-10 Microsoft Corporation Cable user interface
KR20080004229A (ko) 2006-07-05 2008-01-09 엘지노텔 주식회사 무선 단말기를 이용하여 원격으로 응용 프로그램을제어하는 시스템 및 방법
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7694240B2 (en) 2006-11-22 2010-04-06 General Electric Company Methods and systems for creation of hanging protocols using graffiti-enabled devices
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
DE602007004061D1 (de) * 2007-02-06 2010-02-11 Oticon As Abschätzung der eigenen Stimmaktivität mit einem Hörgerätsystem aufgrund des Verhältnisses zwischen Direktklang und Widerhall
US8060841B2 (en) 2007-03-19 2011-11-15 Navisense Method and device for touchless media searching
KR100814067B1 (ko) * 2007-05-30 2008-03-14 (주)엠비즈코리아 에스엠에스 메시지 열람확인 방법 및 이를 수행하기 위한단말장치
US8219936B2 (en) 2007-08-30 2012-07-10 Lg Electronics Inc. User interface for a mobile device using a user's gesture in the proximity of an electronic device
US8564574B2 (en) * 2007-09-18 2013-10-22 Acer Incorporated Input apparatus with multi-mode switching function
US7631811B1 (en) 2007-10-04 2009-12-15 Plantronics, Inc. Optical headset user interface
JP2009129257A (ja) * 2007-11-26 2009-06-11 Sony Corp サーバ装置、端末装置、共感動作管理処理方法、共感動作方法、プログラム
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
BRPI0911188B1 (pt) 2008-04-07 2020-05-05 Koss Corp fone de ouvido sem fio que se transiciona entre redes sem fio
US8731218B2 (en) * 2008-04-10 2014-05-20 Apple Inc. Deformable controller for electronic device
US8320578B2 (en) * 2008-04-30 2012-11-27 Dp Technologies, Inc. Headset
US20100293462A1 (en) 2008-05-13 2010-11-18 Apple Inc. Pushing a user interface to a remote device
TW200949618A (en) * 2008-05-16 2009-12-01 Kye Systems Corp Input device and the control method thereof
US8169414B2 (en) 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
CN101640857A (zh) * 2008-08-01 2010-02-03 中兴通讯股份有限公司 一种手机电视节目共享方法及其手机
US8447609B2 (en) 2008-12-31 2013-05-21 Intel Corporation Adjustment of temporal acoustical characteristics
US8819597B2 (en) 2009-04-10 2014-08-26 Google Inc. Glyph entry on computing device
EP2427812A4 (en) 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US9563350B2 (en) 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
KR101304321B1 (ko) 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
CN103127716B (zh) 2010-03-22 2015-09-16 美泰有限公司 电子装置及数据的输入和输出
KR101119835B1 (ko) 2010-03-25 2012-02-28 이노디지털 주식회사 터치패드의 사용자 인터페이스가 구비된 리모콘
US9329767B1 (en) 2010-06-08 2016-05-03 Google Inc. User-specific customization based on characteristics of user-interaction
EP2437163A1 (en) 2010-09-09 2012-04-04 Harman Becker Automotive Systems GmbH User interface for a vehicle system
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
EP2432218B1 (en) 2010-09-20 2016-04-20 EchoStar Technologies L.L.C. Methods of displaying an electronic program guide
US9129234B2 (en) * 2011-01-24 2015-09-08 Microsoft Technology Licensing, Llc Representation of people in a spreadsheet
US20120216152A1 (en) 2011-02-23 2012-08-23 Google Inc. Touch gestures for remote control operations
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8223088B1 (en) 2011-06-09 2012-07-17 Google Inc. Multimode input field for a head-mounted display
US9024843B2 (en) * 2011-06-30 2015-05-05 Google Inc. Wearable computer with curved display and navigation tool
US8873147B1 (en) * 2011-07-20 2014-10-28 Google Inc. Chord authentication via a multi-touch interface
US20130021269A1 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
JP5866728B2 (ja) 2011-10-14 2016-02-17 サイバーアイ・エンタテインメント株式会社 画像認識システムを備えた知識情報処理サーバシステム
US9292082B1 (en) 2011-11-08 2016-03-22 Google Inc. Text-entry for a computing device
GB2508763A (en) * 2011-11-09 2014-06-11 Yeil Electronics Co Ltd Securing structure of sound output mechanism and sound processing means of mobile device capable of outputting visual and sound signals
US9064436B1 (en) 2012-01-06 2015-06-23 Google Inc. Text input on touch sensitive interface
US20130194301A1 (en) * 2012-01-30 2013-08-01 Burn Note, Inc. System and method for securely transmiting sensitive information
US9035878B1 (en) 2012-02-29 2015-05-19 Google Inc. Input system
KR102107810B1 (ko) * 2013-03-19 2020-05-28 삼성전자주식회사 디스플레이 장치 및 그의 액티비티에 대한 정보 디스플레이 방법
US10545660B2 (en) * 2013-05-03 2020-01-28 Blackberry Limited Multi touch combination for viewing sensitive information
WO2014204330A1 (en) * 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US20150169505A1 (en) * 2013-12-12 2015-06-18 Steve Kim Textbox magnifier
US20150222686A1 (en) * 2014-02-06 2015-08-06 Elijah Aizenstat System and a method for sharing interactive media content by at least one user with at least one recipient over a communication network
US9479909B2 (en) * 2014-03-20 2016-10-25 Tigertext, Inc. Method of sending messages to devices not configured to receive them
WO2015176037A1 (en) * 2014-05-16 2015-11-19 T-Ink, Inc. Devices and techniques relating to a touch sensitive control device
US20160070702A1 (en) * 2014-09-09 2016-03-10 Aivvy Inc. Method and system to enable user related content preferences intelligently on a headphone
USD793356S1 (en) * 2014-12-16 2017-08-01 Musik, LLC Headphone touchpad
US20170063751A1 (en) * 2015-08-27 2017-03-02 Nicolas Korboulewsky-Braustein Systems and methods for generating and transmitting an email message including an active content
US20170293351A1 (en) * 2016-04-07 2017-10-12 Ariadne's Thread (Usa), Inc. (Dba Immerex) Head mounted display linked to a touch sensitive input device
US20180077096A1 (en) * 2016-09-13 2018-03-15 Mark A. DeMattei Messaging environment for mobile device with multitask toolbar, search engine and keyboard control access to apps and centralized functionality
EP3886328A4 (en) * 2018-12-24 2022-02-09 Huawei Technologies Co., Ltd. WIRELESS SHORT RANGE AUDIO SHARING METHOD AND ELECTRONIC DEVICE
WO2022119772A1 (en) * 2020-12-02 2022-06-09 Amazon Technologies, Inc. Sharing audio from a source device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6700986B2 (en) * 2001-05-14 2004-03-02 Vertex Standard Co., Ltd. Microphone characteristic adjustment device
CN102270043A (zh) * 2010-06-23 2011-12-07 微软公司 协调设备交互来增强用户体验
US20130339850A1 (en) * 2012-06-15 2013-12-19 Muzik LLC Interactive input device
CN203164614U (zh) * 2013-03-05 2013-08-28 成名 一种多用手表

Also Published As

Publication number Publication date
WO2016057943A1 (en) 2016-04-14
US20210034176A1 (en) 2021-02-04
JP2017534132A (ja) 2017-11-16
US20180364825A1 (en) 2018-12-20
US10824251B2 (en) 2020-11-03
US10088921B2 (en) 2018-10-02
US20160231834A1 (en) 2016-08-11
JP2021002399A (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
CN107210950A (zh) 用于共享用户交互的设备
US11924364B2 (en) Interactive networked apparatus
CN104685470B (zh) 用于从模板生成用户界面的设备和方法
CN106464758B (zh) 利用用户信号来发起通信
CN103237248B (zh) 基于媒体反应来控制媒体节目
CN107005739A (zh) 用于基于语音的设备的外部视觉交互
CN108885521A (zh) 跨环境共享
CN107209668A (zh) 反应型代理开发环境
CN103562906A (zh) 用于在线体验的基于情绪的用户标识
US20160063101A1 (en) Mobile terminal, recommendation system, and recommendation method
CN103999021A (zh) 受手势控制的音频用户接口
CN109040297A (zh) 用户画像生成方法及装置
WO2017049952A1 (zh) 一种推荐音乐的方法、装置及系统
CN104756145A (zh) 支持混合广告的和用户拥有的内容呈现
CN110248236A (zh) 视频播放方法、装置、终端及存储介质
US20130068085A1 (en) Musical instrument with networking capability
US10307672B2 (en) Distribution system, distribution method, and distribution device
KR101790216B1 (ko) 사용자 인터페이스를 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
KR20200105344A (ko) 사용자정보 및 공간정보 기반 음악 추천 시스템 및 음악 추천 방법
KR20230109289A (ko) 개인 제작 완구 판매 서비스 제공 방법
Hopmann Content and Context-Aware Interfaces for Smarter Media Control
CN108090195A (zh) 一种歌曲播放方法和电子设备
Guerrero An Analysis of Audio Mixing Console Designs, Recording Software, and a Look at Future Interfaces Using Intuitive Input Technologies

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170926

WD01 Invention patent application deemed withdrawn after publication