CN109154858B - 智能电子设备及其操作方法 - Google Patents

智能电子设备及其操作方法 Download PDF

Info

Publication number
CN109154858B
CN109154858B CN201780019934.1A CN201780019934A CN109154858B CN 109154858 B CN109154858 B CN 109154858B CN 201780019934 A CN201780019934 A CN 201780019934A CN 109154858 B CN109154858 B CN 109154858B
Authority
CN
China
Prior art keywords
display
processor
electronic device
head
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780019934.1A
Other languages
English (en)
Other versions
CN109154858A (zh
Inventor
成原圭
金长云
白宰昊
申元镐
李炳赞
李周炯
郑雨爀
孙东一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109154858A publication Critical patent/CN109154858A/zh
Application granted granted Critical
Publication of CN109154858B publication Critical patent/CN109154858B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3204Player-machine interfaces
    • G07F17/3209Input means, e.g. buttons, touch screen
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/32Coin-freed apparatus for hiring articles; Coin-freed facilities or services for games, toys, sports, or amusements
    • G07F17/3202Hardware aspects of a gaming system, e.g. components, construction, architecture thereof
    • G07F17/3204Player-machine interfaces
    • G07F17/3211Display means
    • G07F17/3213Details of moving display elements, e.g. spinning reels, tumbling members
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/025LAN communication management
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/06Remotely controlled electronic signs other than labels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/16Digital picture frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

提供了一种电子设备和一种用于操作该电子设备的方法。该电子设备,包括:基座;固定头,其设置在基座的上部部分上;驱动单元,其设置在固定头的内部空间中;可移动头,其围绕固定头的至少一部分,并且设置成能够通过固定到驱动单元的至少一部分而移动;至少一个传感器模块,其设置在可移动头的至少一部分中;以及至少一个处理器,其通过传感器模块检测输入并且根据输入检测参数控制驱动单元以使可移动头在确定的方向上移动。可以进行其他各种实施例。

Description

智能电子设备及其操作方法
技术领域
本公开涉及一种智能电子设备及一种操作该智能电子设备的方法。
背景技术
随着电子技术的发展,出现了具有各种功能的电子设备。在电子设备中,用户的物理操作可以引起与用户的交互。例如,电子设备可以通过用户的按钮输入(例如,触摸输入)等来执行相应的功能。因此,在统一操作模式之外执行与用户的改进交互的电子设备将是有利的。
以上信息仅作为背景信息提供,以帮助理解本公开。关于上述任何一个是否可以适用于关于本公开的现有技术,没有做出任何确定,并且没有断言。
发明内容
本公开的各方面至少解决上述问题和/或缺点,并且至少提供下面描述的优点。因此,本公开的一个方面是提供一种电子设备,该电子设备在其至少一部分中包括显示器,并且可以通过该显示器执行数据输入/输出功能。从电子设备和用户之间的交互的角度来看,根据用户的数据输出请求,这样的电子设备可以通过显示器、通过振动触觉地、或通过声音声学地输出对应的数据。替代地,可以同时执行上述输出方法中的至少两种。
然而,电子设备的这种统一数据输出方法可能使用户厌烦,并且可能降低对电子设备的偏好。
本公开的各种实施例能够提供一种智能电子设备及一种操作该智能电子设备的方法。
根据本公开的一方面,提供了一种电子设备和一种操作方法。该电子设备,包括:基座;固定头,其设置在基座的上部部分上;驱动单元,其设置在固定头的内部空间中;可移动头,其围绕固定头的至少一部分,并且设置成能够通过固定到驱动单元的至少一部分而移动;至少一个传感器模块,其设置在可移动头或基座的至少一部分中;以及至少一个处理器,其配置为:通过传感器模块检测输入,以及根据输入检测参数控制驱动单元以使可移动头在确定的方向上移动。
根据本公开的另一方面,提供了一种操作电子设备的方法。该方法包括基于接收的声音语音检测用户,移动显示器以面向用户,以及通过显示器执行功能。
根据本公开的另一方面,提供了一种包括显示器的电子设备。电子设备包括移动显示器的驱动模块,以及功能上连接到显示器和驱动模块的处理器。处理器可以被配置为基于接收的声音语音检测用户,移动显示器以面向用户,以及通过显示器执行功能。
通过以下结合附图公开了本公开的各种实施例的详细描述,本公开的其他方面、优点和显着特征对于本领域技术人员将变得显而易见。
附图说明
通过以下结合附图的描述,本公开的某些实施例的以上和其它方面、特征和优点将变得更加明显,其中:
图1示出了根据本公开的各种实施例的网络环境系统的框图;
图2示出了根据本公开的各种实施例的电子设备的框图;
图3A示出了根据本公开的各种实施例的程序模块的框图;
图3B示出了用于解释根据本公开各种实施例的声学语音识别技术的视图;
图4A示出了根据本公开的各种实施例的智能电子设备的透视图;
图4B示出了根据本公开的各种实施例的智能电子设备的底侧透视图;
图4C是示出根据本公开的各种实施例的智能电子设备的显示器的视图;
图5A示出了根据本公开的各种实施例的智能电子设备的分解透视图;
图5B是示出根据本公开的各种实施例的可移动头与固定头分离的状态的视图;
图6A是示出根据本公开的各种实施例的智能电子设备的下驱动单元的配置的视图;
图6B是示出根据本公开的各种实施例的智能电子设备的下驱动单元的视图,其是从另一方向观察的;
图6C和6D是各自示出根据本公开的各种实施例的智能电子设备的主要部分的横截面图;
图7A是示出根据本公开的各种实施例的智能电子设备的上驱动单元的配置的视图;
图7B是示出根据本公开的各种实施例的智能电子设备的下驱动单元的视图,其是从另一方向观察的;
图7C和7D是各自示出根据本公开的各种实施例的智能电子设备的主要部分的横截面图;
图8A和8B是各自示出由根据本公开的各种实施例的智能电子设备的下驱动单元对可移动头的操作关系的操作图;
图9A和9B是各自示出由根据本公开的各种实施例的智能电子装置的上驱动单元对可移动头的操作关系的操作图;
图10示出了根据本公开的各种实施例的电子设备的操作方法的流程图;
图11示出了根据本公开的各种实施例的图10中的用户检测操作的流程图;
图12示出了根据本公开的各种实施例的图10中的用户检测操作的流程图;
图13示出了根据本公开的各种实施例的图10中的用户面向显示器移动操作的流程图;
图14示出了根据本公开的各种实施例的图10中的用户面向显示器移动操作的流程图;
图15示出了根据本公开的各种实施例的图10中的功能执行操作的流程图;
图16示出了根据本公开的各种实施例的图15中的用户跟踪操作的流程图;
图17示出了根据本公开的各种实施例的图16中的显示移动操作的流程图;和
图18A,18B,18C,18D,19,20A,20B,21A,21B,22,23,24A,24B,24C,25A,25B,26A,26B,26C,26D,27A,27B,27C,28A,28B,29A,29B,30A,30B,30C,30D,30E,30F,31A,31B,31C,31D,31E和31F示出了用于解释根据本公开的各种实施例的电子设备的操作方法的视图。
在整个附图中,相同的附图标记将被理解为表示相同的部件、组件和结构。
具体实施方式
提供以下参照附图的描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。其包括各种具体细节以帮助理解,但是这些仅仅被认为是示例性的。因此,本领域的普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对这里描述的各种实施例进行各种改变和修改。此外,为了清楚和简明,可以省略对公知功能和结构的描述。
在下面的描述和权利要求中使用的术语和词语不限于书面含义,而是仅被发明人用来使得以能够清楚和一致地理解本公开。因此,本领域技术人员应该清楚,提供本公开的各种实施例的以下描述仅用于说明目的,而不是为了限制由所附权利要求及其等同物限定的本公开的目的。
应该理解的是,除非上下文另有明确规定,否则单数属于“一(a)”、“一(an)”和“该”包括复数指示物。因此,例如,对“一部件表面”的引用包括对这样的表面中的一个或多个的引用。
用于描述本公开的原理的各种实施例仅仅是为了说明,而不应以任何方式解释为限制本公开的范围。本领域技术人员将理解,本公开的原理可以以任何适当地布置的电子设备来实现。
术语“基本上”是指所述特性、参数或值不需要精确地实现,但是变化(诸如公差、测量误差、测量精度限制和本领域技术人员已知的其他因素)可以以不妨碍特性旨在提供的效果的量出现。
本文使用的术语“包括”和“可以包括”旨在表示本文公开的对应功能、操作或构成元件的存在,并且不旨在限制一个或多个功能、操作或构成元件的存在。另外,术语“包括”和“具有”旨在表示存在描述中所公开的特征、数字、操作、构成元件和元件或其组合。然而,可存在一个或多个其他特征、数字、操作,、成元件、元件或其组合的其他可能性。
如本文所使用的,表述“或”包括一起列举的单词的任何和所有组合。例如,“A或B”可以包括A或B,或者可以包括A和B。
尽管在本公开的实施例中使用的表达,诸如“第一”、“第二”,“第一”、“第二”可以用于表达本公开的实施例的各种构成元件,但是这些表达不旨在限制对应的构成元件。以上表达不旨在限制对应构成元件的顺序或重要性,并且可用于将一个构成元件与另一构成元件区分开。例如,第一用户设备和第二用户设备都是用户设备,并指示不同的用户设备。类似地,第一构成元件可以被称为第二构成元件,第二构成元件可以被称为第一构成元件,而不脱离本公开的范围。
当提及元件“连接”或“访问”另一元件时,这可以指示该元件直接连接到或访问另一元件,或者在这两个元件之间可能存在中间元件。当提及元件“直接连接”或“直接访问”另一元件时,应理解不存在中间元件。
这里使用的术语“模块”可以指例如包括硬件(例如,电路和/或机械元件)、软件和固件之一或其组合的单元。术语“模块”可以与诸如单元、逻辑、逻辑块、部件或电路的术语互换使用。这里描述的模块可以是整体构成的部件的最小单元,或者可以是其一部分。模块可以是用于执行一个或多个功能的最小单元,或者可以是其一部分。模块可以机械地或电气地实现。例如,这里描述的模块包括处理电路、专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑器件中的至少一个,它们是已知的或将被开发的并且执行某些操作。
除非另外定义,否则本文使用的所有术语(包括技术和科学术语)具有与本公开的实施例所属领域的普通技术人员通常理解的含义相同的含义。将进一步理解,诸如在常用词典中定义的那些术语应被解释为具有与其在相关领域和本公开的实施例的上下文中的含义一致的含义,并且不应解释为理想化或过于正式的意义,除非在此明确定义。
本文使用的电子设备可以包括能够在至少一个频带中执行通信功能的天线,并且可以是智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、笔记本PC、上网本PC、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组第1阶段或第2阶段(MPEG-1或MPEG-2)音频层3(MP3)播放器、移动医疗设备、相机、和可穿戴设备,例如包括电子眼镜的头戴式设备(HMD)、电子服装、电子手镯、电子项链、电子配件、电子纹身或智能手表等,但不限于此。
电子设备可以是具有天线的智能家用电器,诸如电视(TV)、数字多功能盘(DVD)播放器、音频播放器、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、电视盒(诸如
Figure BDA0001809739900000051
Figure BDA0001809739900000061
)、游戏机、电子词典、电子钥匙、便携式摄像机、以及电子相框等,但不限于此。
包括天线的电子设备可以是各种医疗设备(诸如磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)、成像设备和超声仪器)、导航设备、全球定位系统(GPS)接收器、事件数据记录器(EDR)、飞行数据记录器(FDR)、车载信息娱乐设备、船舶电子设备(诸如船舶导航设备和陀螺罗盘)、航空电子设备、安全设备、车头单元、工业或家用机器人、自动柜员机(ATM)和销售点(POS)设备等中的一个,但不限于此。
电子设备可以是家具或包括天线的建筑物/结构中的至少一个的一部分。电子设备可以是电子板、电子签名输入设备、投影仪、或用于诸如供水、供电、供气的共用视野的各种测量机械和传播测量机械等中的任何一种,但不限于此。
电子设备可以是前述各种设备的一个或多个组合。另外,电子设备可以是柔性设备。此外,电子设备不限于上述设备。
在下文中,将参照附图描述根据本公开的示例实施例的电子设备。在实施例中使用的术语“用户”可以指使用电子设备的人或使用电子设备的设备,例如人工智能(AI)电子设备。在以下描述中,术语环形构件用于方便并有助于理解。然而,应该理解,术语环形构件是指例如环形件,例如,基本上环状的结构、环状形状的结构或环状结构等。
图1是示出根据本公开的各种实施例的包括电子设备的示例网络环境的图。
参考图1,网络环境162包括电子设备101。电子设备101包括总线110,处理器120,存储器130,输入/输出接口(例如,包括输入/输出电路)150,显示器160和通信接口(例如,包括通信电路)170。在本公开的实施例中,电子设备101可以省略部件中的至少一个或者还包括另外的部件。
总线110包括用于连接部件并在部件间传递诸如控制消息之类的通信的电路。
处理器120包括中央处理单元(CPU)、应用处理器(AP)和通信处理器(CP)中的一个或多个。处理器120处理关于控制电子设备101的另一部件和/或与电子设备101的另一部件通信的操作或数据。
连接到长期演进(LTE)网络的处理器120使用诸如电路交换(CS)服务网络的呼叫者电话号码之类的呼叫者识别信息来确定呼叫是否通过CS服务网络连接,CS服务网络诸如第2代(2G)或第3代(3G)网络。例如,处理器120通过诸如电路交换回退(CSFB)的LTE网络接收呼入呼叫信息,例如CS通知消息或CS服务网络的寻呼请求消息。连接到LTE网络的处理器120通过诸如单个无线电LTE(SRLTE)的CS服务网络接收呼入呼叫信息,例如寻呼请求消息。
当通过LTE网络接收CS服务网络的传入CS通知消息或寻呼请求消息时,处理器120从传入呼叫信息获得呼叫者标识信息。处理器120在显示器160上显示呼叫者识别信息。处理器120基于与显示器160上显示的呼叫者识别信息相对应的输入信息来确定是否连接呼叫。例如,当通过输入/输出接口150检测到对应于传入呼叫拒绝的输入信息时,处理器120限制语音呼叫连接并维持LTE网络连接。例如,当通过输入/输出接口150检测到对应于传入呼叫接受的输入信息时,处理器120通过连接到CS服务网络来连接语音呼叫。
当通过LTE网络接收CS服务网络的传入CS通知消息或寻呼请求消息时,处理器120从传入呼叫信息获得呼叫者标识信息。处理器120通过将呼叫者识别信息与接收控制列表进行比较来确定是否连接呼叫。例如,当呼叫者标识信息包括在诸如黑名单的第一接收控制列表中时,处理器120限制语音呼叫连接并保持与LTE网络的连接。当呼叫者识别信息不包括在黑名单中时,处理器120通过连接到CS服务网络来连接语音呼叫。当呼叫者识别信息包括在诸如白名单的第二接收控制列表中时,处理器120通过连接到CS服务网络来连接语音呼叫。
当通过LTE网络接收传入呼叫信息(诸如CS服务网络的寻呼请求消息)时,处理器120向CS服务网络发送呼入响应消息,诸如寻呼响应消息。处理器120暂停LTE服务并从CS服务网络接收呼叫者标识信息,例如电路交换呼叫(CC)建立消息。处理器120通过将呼叫者识别信息与接收控制列表进行比较来确定是否连接呼叫。例如,当呼叫者标识信息包括在黑名单中时,处理器120限制语音呼叫连接并恢复LTE网络连接。当呼叫者识别信息不包括在黑名单中时,处理器120通过连接到CS服务网络来连接语音呼叫。例如,当呼叫者标识信息包括在白名单中时,处理器120通过连接到CS服务网络来连接语音呼叫。
存储器130可以包括易失性和/或非易失性存储器。存储器130存储命令或数据,诸如与电子设备101的至少另一部件有关的接收控制列表。存储器130可以存储软件和/或程序140。程序140可以包括内核141、中间件143、应用程序编程接口(API)145和/或应用程序(或“应用”)147。内核141、中间件143和API 145中的至少一些可以被称为操作系统(OS)。
内核141控制或管理系统资源,诸如总线110、处理器120或用于执行由其他程序(例如中间件143、API 145或应用程序147)实现的操作或功能的存储器130。此外,内核141提供接口,中间件143、API 145或应用程序147通过该接口连接电子设备101的各个元件以控制或管理系统资源。
中间件143用作允许API 145或应用147与内核141通信以交换数据的中介。
另外,中间件143根据其优先级处理从应用147接收的一个或多个任务请求。例如,中间件143将用于使用电子设备101的系统资源的优先级分配给应用147中的至少一个。例如,中间件143可以通过根据分配给其的优先级处理一个或多个任务请求来对一个或多个任务请求执行调度或负载平衡。
API 145是接口,应用程序147通过该接口控制从内核141或中间件143提供的功能,并且API 145可以包括至少一个接口或功能,诸如用于文件控制、窗口控制、图像处理或文本控制的指令。
输入/输出接口150可以包括各种电路,其被配置和布置成用作将来自用户或另一外部设备的指令或数据输入传送到电子设备101的其他元件的接口。此外,输入/输出接口150将从电子设备101的其他元件接收的指令或数据输出到用户或外部电子设备。
显示器160可以包括液晶显示器(LCD)、发光二极管(LED)显示器、有机LED(OLED)显示器、微机电系统(MEMS)显示器、电子纸显示器等。显示器160为用户显示各种类型的内容,例如文本、图像、视频、图标或符号。显示器160可以包括触摸屏,并且使用电子笔或用户的身体部位接收例如触摸、手势、接近度、悬停输入等。显示器160可以显示网页。
通信接口170可以包括各种通信电路,其可以在电子设备101和外部电子设备(例如第一外部电子设备102、第二外部电子设备104或服务器106)之间建立通信。例如,通信接口170包括各种通信电路,其可以通过无线通信或有线通信或经由短范围通信164与第一外部电子设备102、第二外部电子设备104或连接到网络162的服务器106通信。例如,无线通信可以符合包括LTE、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)中的至少一个的蜂窝通信协议。
有线通信可以包括通用串行总线(USB)、高清晰度多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POTS)中的至少一种。
网络162可以包括电信网络中的至少一个,例如,诸如局域网(LAN)或广域网(WAN)的计算机网络、因特网和电话网络。
电子设备101通过使用在功能上或物理上与处理器120分离的至少一个模块在单个无线电环境中提供LTE服务。
第一外部电子设备102和第二外部电子设备104中的每一个可以是与电子设备101相同或不同的类型的设备。根据本公开的实施例,服务器106可以包括一组一个或多个服务器。要由电子设备101执行的所有或一些操作可以由另一电子设备或多个其他电子设备执行,诸如第一外部电子设备102和第二外部电子设备104或服务器106。在电子设备101可以自动地或通过请求执行特定功能或服务的情况下,电子设备101可以从其他电子设备请求与其相关联的一些功能,而不是或者除了自身执行功能或服务之外。第一外部电子设备102和第二外部电子设备104或服务器106可以执行所请求的功能或附加功能,并且可以将结果发送到电子设备101。电子设备101可以通过处理接收的结果来提供所请求的功能或服务。为此目的,例如,可以使用云计算技术、分布式计算技术或客户端-服务器计算技术。
图2是示出根据本公开的各种实施例的电子设备的示例配置的图。
参考图2,电子设备201可以包括参考图1的电子设备101描述的所有或一些部件。电子设备201包括至少一个处理器(AP)210,通信模块(例如,包括通信电路)220,用户识别模块(SIM)卡224,存储器230,传感器模块240,输入设备(例如,包括输入电路250),显示器260,接口(例如,包括接口电路)270,音频模块280,相机模块291,电源管理模块295,电池296,指示器297和电机298。
AP 210通过驱动OS或应用程序来控制连接到AP 210的多个硬件或软件元件。AP210处理包括多媒体数据的各种数据,执行算术运算,可以用片上系统(SoC)实现,并且还可以包括图形处理单元(GPU)。
通信模块220可以包括各种通信电路,其在第二外部电子设备104或服务器106之间的通信中执行数据发送/接收,第二外部电子设备104或服务器106可以通过网络162与电子设备201连接。通信模块220包括各种通信电路,例如但不限于,蜂窝模块221、Wi-Fi模块223、
Figure BDA0001809739900000101
(BT)模块225、全球导航卫星系统中(GNSS)或GPS模块227、近场通信(NFC)模块228和射频(RF)模块229的至少一个。
蜂窝模块221提供语音呼叫、视频呼叫、文本服务或因特网服务,诸如通过例如包括LTE、LTE-A、CDMA、WCDMA、UMTS、WiBro和GSM的通信网络。另外,蜂窝模块221通过使用SIM卡224识别和认证通信网络内的电子设备201。蜂窝模块221可以执行可以由AP 210提供的功能中的至少一些。例如,蜂窝模块221可以执行多媒体控制功能中的至少一些。
蜂窝模块221包括CP。此外,蜂窝模块221可以例如用SoC实现。虽然诸如蜂窝模块221、存储器230和电源管理模块295的元件被示出为关于图2中的AP 210的单独元件,但是AP 210也可以被实现为使得至少一个部件,例如前述元件的蜂窝模块221,包括在AP 210中。
AP 210或蜂窝模块221将从与其连接的每个非易失性存储器或至少一个不同元件接收的指令或数据加载到易失性存储器并处理该指令或数据。另外,AP 210或蜂窝模块221将从不同元件中的至少一个接收或由至少一个不同元件生成的数据存储到非易失性存储器中。
Wi-Fi模块223、BT模块225、GNSS模块227和NFC模块228中的每一个包括用于处理通过对应模块发送/接收的数据的处理器。虽然蜂窝模块221、Wi-Fi模块223、BT模块225、GNSS模块227和NFC模块228在图2中被示为单独的块,但是蜂窝模块221、Wi-Fi模块223、BT模块225、GNSS模块227和NFC模块228中的至少两个可以包括在一个集成芯片(IC)或IC封装中。例如,对应于蜂窝模块221、Wi-Fi模块223、BT模块225、GNSS模块227和NFC模块228的处理器中的至少一些,诸如与蜂窝模块221对应的通信处理器和与Wi-Fi模块223对应的Wi-Fi处理器,可以用SoC实现。
RF模块229发送/接收数据,例如RF信号,并且可以包括例如收发器、功率放大器模块(PAM)、频率滤波器或低噪声放大器(LNA)。另外,RF模块229还可以包括用于在无线通信中的自由空间上发送/接收无线电波的部件,例如导体或导线。蜂窝模块221、Wi-Fi模块223,BT模块225,GNSS模块227和NFC模块228可以共享一个RF模块229,并且这些模块中的至少一个可以经由单独的RF模块发送/接收RF信号。
SIM卡224可以插入在电子设备201的特定位置处形成的槽中。SIM卡224包括唯一标识信息,例如集成电路卡标识符(ICCID)或订户信息,例如国际移动订户标识(IMSI)。
存储器230包括内部存储器232或外部存储器234。
内部存储器232可以包括易失性存储器或非易失性存储器中的至少一个,该易失性存储器例如动态随机存取存储器(DRAM)、静态RAM(SRAM)或同步动态RAM(SDRAM),该非易失性存储器例如一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、掩模ROM、闪存ROM、非和(NAND)闪存、以及非或(NOR)闪存。内部存储器232可以是固态驱动器(SSD)。
外部存储器234可以包括闪存驱动器、紧凑型闪存(CF)、安全数字(SD)、微型SD、迷你SD、极端数字(xD)和记忆棒,并且可以经由各种接口可操作地联接到电子设备201。
电子设备201还可以包括存储单元(或存储介质),例如硬盘驱动器。
传感器模块240测量物理量或检测电子设备201的操作状态,并将测量或检测的信息转换为电信号。传感器模块240包括例如手势传感器240A,陀螺仪传感器240B,气压传感器,大气传感器或空气传感器240C,磁传感器240D,加速度传感器240E,抓握传感器240F,接近传感器240G,颜色传感器240H(例如红色、绿色、蓝色(RGB)传感器),生物计量传感器240I,温度/湿度传感器240J,照明/照度(例如,光)传感器240K和紫外线(UV)传感器240M中的至少一个。
附加地或替代地,传感器模块240可以包括例如电子鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器和指纹传感器。
传感器模块240还可包括用于控制其中包括的至少一个或多个传感器的控制电路。
输入设备250可以包括各种输入电路,例如但不限于,触摸面板252、(数字)笔传感器254、键256或超声输入单元258。
触摸面板252通过使用静电型配置、压敏型配置和超声型配置中的至少一种来识别触摸输入。触摸面板252还可以包括控制电路。在触摸面板是静电类型的情况下,物理接触识别和接近识别都是可能的。触摸面板252还可以包括触觉层,其为用户提供触觉反应。
(数字)笔传感器254可以包括识别片,该识别片是触摸面板的一部分或者与触摸面板分离。键256可以包括物理按钮、光学键或小键盘。超声输入装置258可以通过麦克风288检测由输入工具产生的超声波,并且可以确认与检测到的超声波相对应的数据。
(数字)笔传感器254可以通过使用接收用户的触摸输入的相同或类似方法或通过使用用于识别的附加片来实现。
键256可以是物理按钮、光学键、小键盘或触摸键。
超声输入单元258是这样的设备,通过该设备,电子设备201通过麦克风288检测反射的声波并且能够进行无线电识别。例如,可以通过使用笔生成的超声信号可以从物体反射并由麦克风288检测。
电子设备201可以使用通信模块220从外部设备接收用户输入,诸如计算机或与其连接的服务器。
显示器260包括面板262、全息264或投影仪266。
面板262可以是液晶显示器(LCD)或有源矩阵有机发光二极管(AM-OLED)等,但不限于此。面板262可以以柔性、透明或可穿戴的方式实现,并且可以构造为具有触摸面板252的一个模块。
全息设备264使用光的干涉并在空中显示立体图像。
投影仪266通过将光束投射到屏幕上来显示图像。屏幕可以位于电子设备201的内部或外部。
显示器260还可以包括用于控制面板262、全息设备264或投影仪266的控制电路。
接口270可以包括各种接口电路,例如但不限于HDMI 272、USB 274、光通信接口276或D-超小型(D-sub)278。接口270可以被包括在例如图1的通信接口160中,并且可以包括移动高清链路(MHL)、SD/多媒体卡(MMC)或红外数据协会(IrDA)。
音频模块280双向转换声音和电信号。音频模块280的至少一些元件可以包括在图1的输入/输出接口150中。例如,音频模块280转换通过扬声器282、接收器284、耳机286或麦克风288输入或输出的声音信息。
扬声器282可以输出可听频带的信号和超声频带的信号。可以接收从扬声器282发射的超声信号的反射波和外部可听频带的信号。
相机模块291是用于图像和视频捕获的设备,并且可以包括一个或多个图像传感器,诸如前传感器或后传感器、镜头、图像信号处理器(ISP)、或闪光灯,诸如发光二极管(LED)或氙灯。在某些情况下,包括两个或更多个相机模块可能是有利的。
功率管理模块295管理电子设备201的功率。功率管理模块295可以包括功率管理集成电路(PMIC)、充电器IC或电池电量计。
PMIC可以放置在IC或SoC半导体内部。充电分为有线充电和无线充电。充电器IC对电池充电,防止来自充电器的过电压或过电流,并且包括用于有线和无线充电中的至少一个的充电器IC。
无线充电可以被分类为例如磁共振型、磁感应型和电磁型。可以添加用于无线充电的附加电路,例如线圈回路、谐振电路或整流器。
电池计量表可以测量电池296的剩余量以及充电期间的电压、电流和温度。电池296存储或产生电力并通过使用存储的或产生的电力向电子设备201供电。电池296可包括可充电电池或太阳能电池。
指示器297指示特定状态,诸如电子设备201或其一部分(诸如AP 210)的启动、消息或充电状态。
电机298将电信号转换为机械振动。
电子设备201包括处理单元,例如图形处理单元(GPU),用于支持移动TV,该移动TV例如根据数字多媒体广播(DMB)、数字视频广播(DVB)或媒体流的协议处理媒体数据。
电子设备201的每个上述元件可以包括一个或多个部件,并且其名称可以根据电子设备201的类型而变化。电子设备201可以包括前述元件中的至少一个。可以省略一些元件,或者可以进一步包括其他元件。另外,电子设备201的一些元件可以组合并构造为一个实体,以便同等地执行与在组合之前的元件对应的功能。
可以利用例如存储在计算机可读存储介质中的指令来实现设备的至少一些部分,诸如其模块或其功能、或操作。该指令可以由处理器210执行,以执行与该指令相对应的功能。计算机可读存储介质可以是存储器230。编程模块的至少一些部分可以由处理器210执行。编程模块的至少一些部分可以包括用于执行一个或多个功能的模块、程序、例程和指令集。
电子设备201可选地包括安全模块236,用于保护存储在存储器230中或通过通信模块220发送到电子设备201或从电子设备201发送的数据的完整性。
图3A示出了根据本公开的各种实施例的程序模块的框图。
参考图3A,程序模块300(例如,程序140)可以包括控制与电子设备(例如,电子设备101)和/或在操作系统上驱动的各种应用(例如,应用程序147)相关联的资源的OS。操作系统可以是例如Android,iOS,Windows,Symbian,Tizen或Bada。
程序模块300可以包括内核310,中间件320,智能框架330和数据库340。程序模块300的至少一部分可以预先加载在电子设备上,或者可以从外部电子设备(例如,第一外部电子设备102或第二外部电子设备104或服务器106)下载。
内核310(例如,内核141)可以包括系统资源管理器311和设备驱动器313中的至少一个。系统资源管理器311可以执行系统资源的控制、分配和恢复中的至少一个。根据实施例,系统资源管理器311可以包括进程管理单元、存储器管理单元和文件系统管理单元中的至少一个。设备驱动器313可以包括例如显示驱动器,相机驱动器,蓝牙驱动器,公共存储器驱动器,USB驱动器,键盘驱动器,Wi-Fi驱动器,音频驱动器和进程间通信(IPC)驱动器中的至少一个。
中间件320(例如,中间件143)可以提供各种功能。根据实施例,中间件320可以包括手势识别管理器321,面部检测管理器322,传感器信息处理管理器323,交互引擎管理器324,声学合成管理器325,声源跟踪管理器326和声学语音识别管理器327。
智能框架330可以包括多模式融合单元331、用户模式学习单元333和行为控制单元335中的至少一个。多模式融合单元331可以收集或管理由中间件320处理的各种类型的信息。用户模式学习单元333可以使用多模式融合单元331的信息来提取或学习有意义的信息,诸如用户的生活模式和用户的偏好。行为控制单元335可以控制电子设备101的行为。根据实施例,行为控制单元335可以在电子设备101的机械动作、图形或声音中的至少一个中表达要从电子设备101反馈给用户的信息。
数据库340可以包括用户模型存储341,行为模型存储343或附加存储345中的至少一个。用户模型存储341可以存储每个用户的学习信息。行为模型存储343可以存储电子设备101的各种行为模型。附加存储345可以存储其他信息。根据实施例,数据库340可以存储在外部设备中,或者可以经由网络共享。
根据各种实施例,程序模块300的至少一部分可以由软件、固件、硬件或其两个或更多个的组合来实现。程序模块300的至少一部分可以由例如处理器(例如,处理器210)实现(例如,执行)。程序模块300的至少一部分可以包括例如模块、程序、例程、指令集或用于执行一个或多个功能的过程。
图3B示出了用于解释根据本公开的各种实施例的声学语音识别技术的视图。
参考图3B,电子设备101可以从发送器351接收用户(即,接收者352)的消息353。电子设备101可以使用声学语音来查询361消息353以执行声学语音识别(ASR)362。或者,电子设备101可以查询361消息353的元数据以执行信息分析366。具体地,电子设备101可以经由感测模块365执行信息分析366,以便基于所收集的信息确定接收者352。另外,电子设备101可以将用于接收者352的信息用于角色选择367。
电子设备101可以获取作为执行ASR 362的结果的文本,并且可以使用该文本作为查询来执行自然语言理解/对话管理(NLU/DM)363。这里,电子设备101可以通过自然语言理解和对话管理将文本识别为句子。电子设备101可以使用通过NLU/DM 363获得的意图、参数和内容中的至少一个用于角色选择367。电子设备101可以将消息353自身的查询361用于角色选择367。
电子设备101可以基于所确定的角色经由自然语言生成器(NLG)368在一个或多个语言模型370中选择一种语言模型。例如,电子设备101可以确定至少一个文本生成变量。电子设备101可以基于所确定的角色经由NLG368在一个或多个行为模型380中选择一个行为模型。例如,电子设备101可以确定至少一个行为变量。电子设备101可以基于所确定的角色经由NLG368在一个或多个声学模型390中选择一个声学模型。例如,电子设备101可以确定至少一个声学语音生成变量以经由NLG 368输出经文本转换的消息。电子设备101根据所选择的声学模型输出声音响应。电子设备101可以执行文本到语音(TTS)369以输出声音响应。
根据前述内容,电子设备101可以根据一个或多个实体或要发送的内容的关系来改变NLG 368和TTS 369的因子,以便向交互用户提供动态结果。
在属性确定367的过程中,电子设备101不仅可以使用要发送的消息的内容,还可以使用视觉或声音的传感器、连接、个人简档数据等来识别至少一个用户和环境。在语言模型370的情况下,可以根据电子设备101确定另一语言模型370。例如,当通过预设或学习将电子设备101的关系设置为朋友时,可以选择语言模型370来构建表示亲和性的单词和句子。当要传递给用户的消息是紧急消息时,选择具有快速且不同的音调特征的声学模型390,使得可以对消息进行语言转换。在另一实施例中,电子设备101可以将高频带声音调制成低频带声音的声学模型,以便基于容易受到接收器352的听觉影响的信息输出可听声音。
图4A示出了根据本公开的各种实施例的智能电子设备的透视图。
图4B示出了根据本公开的各种实施例的智能电子设备的底侧透视图。
图4C是示出根据本公开的各种实施例的智能电子设备的显示器的视图。
参照图4A和4B,智能电子设备400可包括基座410、固定到基座410顶部的固定头420、以及设置成围绕固定头420的至少一部分并安装成在相对于固定头420的至少两个方向上可移动的可移动头430。根据实施例,基座410和固定头420分开示出和描述,但不限于此。例如,基座410和固定头420可以在不限制可移动头430的移动的范围内一体地形成。根据实施例,固定头420的上端和下端形成为通过切割球形的上端和下端而获得的形状,使得包围固定头420的可移动头430可移动。
根据各种实施例,基座410的底部可包括多个扬声器孔411,用于输出从内置扬声器设备产生的音频。根据实施例,基座410的底部可以包括电缆接收空间412,用于在智能电子设备400以有线连接类型实现时接收数据电缆和/或电力电缆。然而,不限于此,智能电子设备400可以配备有用于无线充电的无线充电线圈构件。
根据各种实施例,固定头420可以固定到基座410的顶部。根据实施例,固定头420的顶表面421可包括至少一个输入设备422。根据实施例,输入设备422可以包括至少一个物理键按钮。根据实施例,输入设备422可以包括至少一个触摸型键盘。根据各种实施例,可移动头430可以在各个方向上移动,以通过输入设备422的输入操纵与用户交互。
根据各种实施例,可移动头430可以设置为围绕固定头420的至少一部分,并且可以布置成可相对于固定头420在各个方向上移动。根据实施例,可移动头430可以相对于固定头420自转,或者可以移动以在各个方向上以一定角度倾斜。根据实施例,可移动头430可以被配置为通过接收上述输入设备的输入操作、通过检测外部物体(例如,物体、人的瞳孔、图像等)或基于用户的手势或声音输入来移动。
根据各种实施例,可移动头430可包括设置在其至少一部分中的显示器431。根据实施例,显示器431可以包括具有触摸传感器的触摸屏设备。根据实施例,其中设置有显示器431的可移动头430的表面可以包括窗口。根据实施例,在这种情况下,如图4C所示,可以执行灰度绘画,其区分位于显示器431附近的窗口区域的绘制和远离显示器431定位的窗口区域的绘制。根据实施例,可以从外部到内部执行灰度处理,使得左区域和右区域的一些部分的颜色相对于显示器431的有效区域是黑色透明的。
根据各种实施例,可移动头430可包括至少一个传感器模块432。根据实施例,至少一个传感器模块432可以包括检测外部物体的移动的图像传感器(例如,图像拾取元件、相机模块、红外传感器或超声传感器);检测外部声音的声音检测传感器(例如,麦克风);检测外部温度的温度传感传感器;感测外部气味的气味传感器;和大气压力传感器中的至少一个。根据实施例,电子设备(例如,电子设备的处理器等)可以使用由至少一个传感器模块检测到的感测参数在对应方向上移动可移动头。
尽管未示出,但是根据各种实施例,智能电子设备400可以包括能够与用户交互的输出设备(例如,振动器或触觉构件)。
根据各种实施例,至少一个传感器模块可以设置在基座410的至少一部分中。在这种情况下,当传感器模块定位在传感器模块能够覆盖可移动头430的移动方向的方向上时,可以激活传感器模块。
图5A是根据本公开的各种实施例的智能电子设备的分解透视图。
图5B是示出根据本公开的各种实施例的可移动头与固定头分离的状态的视图。图5A和5B的智能电子设备可以是智能电子设备的另一实施例,其类似于或不同于图4A的智能电子设备400。
参照图5A和5B,智能电子设备500可包括基座510、固定到基座510顶部的固定头520、可移动头530和驱动单元54,该可移动头530设置成以可移动头530围绕固定头520的至少一部分的方式可移动,该驱动单元540配置成在固定头520内在各个方向上移动可移动头530。根据实施例,驱动单元540可包括允许可移动头530绕z轴旋转的下驱动单元和允许可移动头530绕y轴旋转的上驱动单元。
根据各种实施例,基座510可以包括具有长度并且包括内部空间的竖立壳体511,并且还可以包括底板512、支架容纳壳体513和扬声器支架514,它们在竖立壳体511的向下方向上顺序地容纳在竖立壳体511的内部空间中。根据实施例,扬声器支架514可以容纳扬声器设备,并且声音可以通过设置在基座510的底部的扬声器孔发射。根据实施例,支架容纳壳体513和底板512可以包括容纳空间,该容纳空间容纳从其底部容纳的数据电缆和/或电力电缆。根据实施例,底板512、支架容纳壳体513和扬声器支架514可以通过机械组装结构或单独的紧固构件(例如,螺钉)固定到竖立壳体511的内部空间。根据实施例,竖立壳体511的上部部分可包括固定头支撑板5111,其直径大于竖立壳体511的直径并与竖立壳体511一体形成。固定头520的下壳体521(稍后将描述)可以固定到固定头支撑板5111。
根据各种实施例,固定头520可以以下壳体521和上壳体522彼此联接的方式设置。根据实施例,内部壳体523可以设置在下壳体521和上壳体522的内部空间中,并且驱动单元540可以设置在由内部壳体523和下壳体521形成的内部空间上。然而,不限于此,驱动单元540可以设置在形成为彼此连接的下壳体521和上壳体522内部空间上。根据实施例,上壳体522和下壳体521可以分别固定地联接到轴5411的上端和下端,其中轴5411穿过旋转板541布置。根据实施例,下壳体521和上壳体522可以通过结构联接或单独的紧固构件(例如,螺钉)彼此联接。根据实施例,驱动单元540的至少一些部件(例如,旋转板541、第一固定件546和第二固定件547)可以通过在下壳体521和上壳体522彼此连接之后形成的间隙(例如,可移动的凹部)暴露或突出,并且可移动头530的至少一部分可以固定到驱动单元540的一些暴露或突出部件,使得可移动头530在固定头520上可移动(例如,使用z轴和/或y轴作为旋转轴可旋转预定角度)。
根据实施例,上面板524可以设置在上壳体522的上部部分中。根据实施例,上面板524可以暴露在智能电子设备500的顶部上。根据实施例,上述输入装置422(参见图4A、4B和4C)可以设置在上面板524的顶部上。然而,不限于此,上面板524的至少一部分可以用作附加显示器。在这种情况下,显示器可以包括具有触摸传感器的触摸屏设备。
根据各种实施例,可移动构件530可包括第一支架531和第二支架532,第一支架531和第二支架532以包围固定头520的方式可移动地设置。根据实施例,第一支架531和第二支架532部分地固定到一对固定件546和547,固定件546和547通过设置在固定头520中的驱动单元540引出。根据实施例,第一支架531和第二支架532的内表面设置成与固定头520的外表面间隔开,并且可以分别固定到一对固定件546和547,固定件546和547可由驱动单元540移动。
根据各种实施例,第一窗口533可以以包围第一支架531的外周表面的方式设置。根据实施例,第二窗口534可以以包围第二支架532的外周表面的方式设置。根据实施例,开口5331形成在第一窗口533中,使得设置在第一支架531上的显示模块551可以暴露于第一窗口533的外部。根据实施例,透明颜色窗口可以应用于与在第一窗口533中暴露的显示模块551相对应的部分。根据实施例,第一窗口531和第二窗口532可以由丙烯酸或玻璃材料形成,以在与显示模块551对应的区域中包括透明窗口。
根据各种实施例,驱动单元540可包括可旋转地设置在固定头520内的旋转板541,设置在旋转板541下方的下驱动单元,以及设置在旋转板541上方的上驱动单元。根据实施例,下驱动单元可以使可移动头530移动以绕z轴可旋转。上驱动单元可以使可移动头530移动以绕y轴可旋转。
根据各种实施例,旋转板541可以可旋转地固定在固定头520内部。根据实施例,旋转板541可以以这样的方式设置:旋转板541的下端固定到下壳体521,并且其上端固定到上壳体522的轴5411穿过旋转板541。根据各种实施例,旋转板541可以安装成可在轴5411上旋转。根据实施例,旋转板541可以由合成树脂材料或金属材料形成。根据实施例,旋转板541可包括第一固定件546和第二固定件547。根据实施例,可移动头530的第一和第二支架531和532固定到第一固定件546和第二固定件547,使得当旋转板541旋转时,可移动头530也与旋转板541一起旋转。
根据各种实施例,驱动单元540的下驱动单元可包括第一驱动电机543和第一齿轮542,该第一驱动电机543设置在固定头520的下壳体521中,该第一齿轮542与轴5411同轴地在下壳体521中设置在旋转板541的后表面5413上,以接收第一驱动电机543的旋转力。根据实施例,第一齿轮542设置成与第一驱动电机543的小齿轮5431接合,使得第一驱动电机543的驱动力通过小齿轮5431传递到第一齿轮542以旋转第一齿轮542,结果,旋转板541也可随之旋转。然而,不限于此,第一驱动电机543的驱动力可以通过除齿轮组合之外的驱动传动结构(例如,带)传递。
根据各种实施例,驱动单元540的上驱动单元可包括第二驱动电机544和第二齿轮545,该第二驱动电机544设置在旋转板541的顶表面5415中,该第二齿轮545设置成与第一固定件546的齿轮固定轴5461一起旋转,以接收第二驱动电机544的旋转力。根据实施例,包括第二齿轮545的第一固定件546的齿轮固定轴5461可以可旋转地固定到设置在旋转板541的一侧的第一铰链臂5414。根据实施例,第二固定件547可以设置在旋转板541的与第一铰链臂5414对应的位置处,并且可以设置为能够在旋转板541上空转。根据实施例,第二齿轮545设置成与第二驱动电机544的小齿轮5441接合,使得第二驱动电机544的驱动力通过小齿轮5441传递到第二齿轮545以旋转第二齿轮545,结果,固定在第一固定件546上的可移动头530也可以随之旋转。然而,不限于此,第二驱动电机544的驱动力可以通过除齿轮组合之外的驱动传动结构(例如,带)传递。
根据各种实施例,上固定环535可以设置在固定头520的上壳体522上以暴露于外部。根据各种实施例,下固定环536可设置在固定头520的下壳体521上以暴露于外部。根据实施例,上固定环535和下固定环536可以用作装饰构件,因为它们暴露于外部。
图6A是示出根据本公开的各种实施例的智能电子设备的下驱动单元的配置的视图;
图6B是示出根据本公开的各种实施例的从另一方向观看的智能电子设备的下驱动单元的视图。
图6C和6D是各自示出根据本公开的各种实施例的智能电子设备的主要部分的横截面图。
参照图6A至6D,驱动单元540的下驱动单元的第一齿轮542可设置成与旋转板541的后表面5413一起旋转,并且可与设置在固定头520中的第一驱动电机543的小齿轮5431接合以能够接收旋转力。根据实施例,当第一驱动电机543的小齿轮5431旋转时,第一齿轮542可以旋转,并且旋转板541可以随之旋转。根据实施例,当旋转板541旋转时,固定到旋转板541的第一固定件546也可以绕z轴旋转。
图7A是示出根据本公开的各种实施例的智能电子设备的上驱动单元的配置的视图。
图7B是示出根据本公开的各种实施例的从另一方向观察的智能电子设备的下驱动单元的视图。
图7C和7D是各自示出根据本公开的各种实施例的智能电子设备的主要部分的横截面图。
参照图7A至图7D,驱动单元540的下驱动单元的第一固定件546可以与固定头520的第一支架531和第二支架532固定在一起。根据实施例,第一固定件546可以通过旋转板541的第一铰链臂5414可旋转地固定。根据实施例,当第二驱动电机544的小齿轮5441旋转时,第二齿轮545可以旋转,并且固定到第一固定件546的可移动头530也可以随其旋转。根据实施例,可移动头530可绕y轴旋转。
图8A和8B是各自示出根据本公开的各种实施例的智能电子设备的下驱动单元对可移动头的操作关系的操作图。
图8A和8B的智能电子设备可以是智能电子设备的另一实施例,其类似于或不同于图4A的智能电子设备400和图5A的智能电子设备500。
参照图6A至6D以及图8A和8B,智能电子设备800可包括基座810、固定到基座810顶部的固定头820、可移动头830,其设置成可以以可移动头围绕固定头820的至少一部分的方式移动。
根据各种实施例,如图8A所示,当在智能电子设备800的左方向上接收外部输入(例如,外部物体、用户或声学语音)时,传感器构件832可以感测到它,电子设备800可以确定感测外部输入的方向,并且可以确定用于驱动可移动头830的驱动量,以使显示器831面向相应的方向,并且可以根据驱动量控制第一驱动电机543或者第二驱动电机544。根据实施例,智能电子设备800可以通过根据确定的驱动量操作驱动单元540的下驱动单元的第一驱动马达543,使可移动头830绕z轴顺时针旋转预定角度。
根据各种实施例,如图8B所示,当在智能电子设备800的右方向上接收外部输入(例如,外部物体、用户或声学语音)时,传感器构件832可以感测到它,电子设备800可以确定感测外部输入的方向,并且可以确定用于驱动可移动头830的驱动量,以使显示器831面向相应的方向,并且可以根据驱动量控制第一驱动电机543或者第二驱动电机544。根据实施例,智能电子设备800可以通过根据确定的驱动量操作驱动单元540的下驱动单元的第一驱动马达543,使可移动头830绕z轴逆时针旋转预定角度。
图9A和9B是各自示出由根据本公开的各种实施例的智能电子装置的上驱动单元对可移动头的操作关系的操作图。
图9A和9B的智能电子设备可以是智能电子设备的另一实施例,其类似于或不同于图4A的智能电子设备400、和图5A的智能电子设备500和图8A的智能电子设备800。
参照图7A到7D图9A和9B,智能电子设备900可包括基座910、固定到基座910顶部的固定头920和可移动头930,该可移动头530设置成以可移动头围绕固定头920的至少一部分的方式可移动。
根据各种实施例,如图9A所示,当在智能电子设备900的左上方向上接收外部输入(例如,外部物体、用户或声学语音)时,传感器构件932可以感测到它,电子设备900可以确定感测外部输入的方向,并且可以确定用于驱动可移动头930的驱动量,以使显示器931面向相应的方向,并且可以根据驱动量控制第一驱动电机543或者第二驱动电机544。根据实施例,智能电子设备900可以通过根据确定的驱动量操作驱动单元540的上驱动单元的第二驱动马达544,使可移动头530向上旋转预定角度。
根据各种实施例,如图9B所示,当在智能电子设备900的左下方向上接收外部输入(例如,外部物体、用户或声学语音)时,传感器构件932可以感测到它,电子设备900可以确定感测外部输入的方向,并且可以确定用于驱动可移动头930的驱动量,以使显示器931面向相应的方向,并且可以根据驱动量控制第一驱动电机543或者第二驱动电机544。根据实施例,智能电子设备900可以通过根据确定的驱动量操作驱动单元540的上驱动单元的第二驱动马达544,使可移动头530向下旋转预定角度。
根据各种实施例,通过响应于传感器构件832或932检测到外部输入而同时操作驱动单元540的上驱动单元和下驱动单元,可移动头830或930可以在z轴方向和y轴方向(例如,图5A中的y轴方向)上同时旋转。可移动头830或930的旋转是为了将放置在可移动头部830和930上的显示器831或931清楚地引导至用户。然而,不限于此,可移动头830或930可移动以将包括在电子设备中的各种输出装置(例如,扬声器设备、麦克风设备或视觉指示器设备)引导至用户,以及引导显示器831或931。
图10示出了根据本公开的各种实施例的电子设备的操作方法的流程图。此外,图18A,18B,18C,18D,19,20A,20B,21A,21B,22,23,24A,24B,24C,25A,25B,26A,26B,26C,26D,27A,27B,27C,28A,28B,29A,29B,30A,30B,30C,30D,30E,30F,31A,31B,31C,31D,31E和31F示出了用于解释根据本公开的各种实施例的电子设备的操作方法的视图。
参考图10,根据各种实施例的电子设备(例如,电子设备201)的操作方法可以在操作1011中由处理器(例如,处理器210)检测用户来开始。处理器210可以在显示待机屏幕的同时检测用户。处理器210可以使用传感器模块(例如,传感器模块240)、音频模块(例如,音频模块280)或相机模块(例如,相机模块291)中的至少一个来检测用户。例如,音频模块280可以经由麦克风(例如,麦克风288)收集音频信号,并且处理器210可以基于音频信号来检测用户。或者,相机模块291可以捕获图像数据,并且处理器210可以基于图像数据来检测用户。处理器210可以检测用户方向和用户距离中的至少一个。可以参考电子设备201朝向用户确定用户方向,并且用户距离可以指示电子设备201与用户之间的距离。
根据实施例,处理器210可以在显示器260上显示待机屏幕,如图18A至18D所示。待机屏幕可以包括时间信息、环境信息和感测信息中的至少一个。时间信息可以包括时间和日期中的至少一个,并且环境信息可以包括天气、温度、湿度和照度中的至少一个。另一方面,处理器210可以根据时间的推移改变待机屏幕。例如,处理器210可以通过待机屏幕表示对应于时间的太阳的位置。如图18A所示,处理器210可以在待机屏幕左侧表示太阳位置以对应于早晨的时间。如图18B所示,处理器210可以在待机屏幕的中心表示太阳位置以对应于正午时间。如图18C所示,在下午时间,处理器210可以在待机屏幕右侧表示太阳位置。如图18D所示,处理器210可以从待机屏幕移除太阳的位置以对应于午夜的时间。
图11示出了根据本公开的各种实施例的图10中的用户检测操作的流程图。
参考图11,当接收到用户的声学语音时,处理器210可以在操作1111中检测声学语音。例如,当在音频模块280中检测到声学语音时,处理器210可以接收检测到的声学语音。为此,音频模块280可以经由麦克风288收集音频信号。然后,音频模块280可以分析音频信号以检测声学语音。此时,音频模块280可以基于音频信号的波形来检测声学语音。
接下来,处理器210可以在操作1113中识别声学语音。此时,处理器210可以从声学语音提取语言信息。例如,处理器210可以将声学语音的波形转换为文本。或者,处理器210可以从声学语音检测声纹。
接下来,处理器210可以在操作1115中确定用户方向或用户距离中的至少一个。此时,处理器210可以检测声学语音的方向性,并且可以从其检测用户方向。例如,麦克风288可以是定向麦克风,并且处理器210可以检测来自麦克风288的声学语音的方向性。另一方面,处理器210可以测量声学语音的强度,并且可以从其检测用户距离。为此,处理器210可以确定文本是否满足预定的触发条件。另外,当文本满足触发条件时,处理器210可以确定用户方向和用户距离中的至少一个。或者,处理器210可以确定声纹是否满足预设的触发条件。此外,当声纹满足触发条件时,处理器210可以确定用户方向和用户距离中的至少一个。此后,处理器210可以返回到图10。
图12示出了根据本公开的各种实施例的图10中的用户检测操作的流程图。
参考图12,当接收到用户的声学语音时,处理器210可以在操作1211中检测声学语音。例如,当在音频模块280中检测到声学语音时,处理器210可以感测它。为此,音频模块280可以经由麦克风288收集音频信号。然后,音频模块280可以分析音频信号以检测声学语音。此时,音频模块280可以基于音频信号的波形来检测声学语音。
接下来,处理器210可以在操作1213中识别用户的声学语音。此时,处理器210可以从声学语音提取语言信息。例如,处理器210可以将声学语音的波形转换为文本。或者,处理器210可以从声学语音检测声纹。
接下来,处理器210可以在操作1215中确定用户方向。此时,处理器210可以检测声学语音的方向性,并且可以从其检测用户方向。例如,麦克风288可以是定向麦克风,并且处理器210可以检测来自麦克风288的声学语音的方向性。为此,处理器210可以确定文本是否是预设触发文本。此外,当文本是触发数据,处理器210可以确定用户方向。或者,处理器210可以确定声纹是否满足预设的触发条件。此外,当声纹满足触发条件时,处理器210可以确定用户方向。
接下来,在操作1217中,处理器210可以确定是否移动显示器260。为此,处理器210可以将显示器260的显示方向与用户方向进行比较。也就是说,处理器210可以确定显示器260的显示方向是否对应于用户方向。当确定显示器260的显示方向对应于用户方向时,处理器210可以确定不必移动显示器260。另一方面,当确定显示器260的显示方向不对应于用户方向时,处理器210可以确定需要移动显示器260。
接下来,当在操作1217中确定需要移动显示器260时,处理器210可以在操作1219中移动显示器260以面向用户。此时,处理器210可以移动显示器260以对应于用户方向。也就是说,处理器210可以移动显示器260,使得显示器260的显示方向对应于用户方向。为此,处理器210可以围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转显示器260。这里,处理器210可以控制电机298(或者,驱动模块)以旋转显示器260。通过此,传感器模块240、音频模块280和相机模块291中的至少一个可以与显示器260一起移动以面向用户。
接下来,处理器210可以在操作1221中获取图像数据。例如,相机模块291可以捕获图像数据,并且处理器210可以从相机模块291获取图像数据。此时,当相机模块291关闭时,处理器210可以打开相机模块291。
另一方面,当在操作1217中确定不需要移动显示器260时,处理器210可以在操作1221中获取图像数据。例如,相机模块291可以捕获图像数据,并且处理器210可以从相机模块291获取图像数据。此时,当相机模块291关闭时,处理器210可以打开相机模块291。
接下来,处理器210可以在操作1223中从图像数据检测用户的面部。例如,处理器210可以使用面部提取方法、面部识别方法、面部方向性检测方法和眼睛跟踪方法中的至少一个来检测用户的面部。
根据面部提取方法,处理器210可以从图像数据将与面部对应的面部区域和背景区域区分开。由此,处理器210可以检测图像数据中的面部尺寸和面部位置中的至少一个。根据面部识别方法,处理器210可以通过从图像数据检测诸如眼睛、鼻子和嘴巴的特征点来检测面部。通过此,处理器210可以基于面部的特征点来识别用户。根据面部方向性检测方法,处理器210可以在图像数据中识别面部的方向,例如,正面或侧面。根据眼睛跟踪方法,处理器210可以识别图像数据中的眼睛,并且可以从眼睛的运动跟踪凝视。由此,处理器210可以检测图像数据中眼睛的尺寸和眼睛的位置中的至少一个。
接下来,处理器210可以在操作1225中确定用户方向或用户距离中的至少一个。此时,处理器210可以基于图像数据中的用户的面部来确定用户方向。例如,处理器210可以确定用户方向以对应于图像数据中的面部的位置或面部中的眼睛的位置。同时,处理器210可以基于用户的面部和声学语音中的至少一个来确定用户距离。例如,处理器210可以确定用户距离以对应于图像数据中的面部的尺寸或眼睛的尺寸。或者,处理器210可以测量声学语音的强度,并且可以从其检测用户距离。此后,处理器210可以返回到图10。
随后,在操作1013中,处理器210可以移动显示器260以面向用户。处理器210可以移动显示器260以对应于用户方向。也就是说,处理器210可以移动显示器260,使得显示器260的显示方向对应于用户方向。为此,处理器210可以围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转显示器260。
图13示出了根据本公开的各种实施例的图10中的用户面向显示器移动操作的流程图。
参照图13,在操作1311中,处理器210可以确定是否移动显示器260。为此,处理器210可以将显示器260的显示方向与用户方向进行比较。也就是说,处理器210可以确定显示器260的显示方向是否对应于用户方向。当确定显示器260的显示方向对应于用户方向时,处理器210可以确定不必移动显示器260。另一方面,当确定显示器260的显示方向不对应于用户方向时,处理器210可以确定需要移动显示器260。
接下来,当在操作1311中确定需要移动显示器260时,处理器210可以在操作1313中移动显示器260以面向用户。此时,处理器210可以移动显示器260以对应于用户方向。也就是说,处理器210可以移动显示器260,使得显示器260的显示方向对应于用户方向。为此,处理器210可以围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转显示器260。这里,处理器210可以控制电机298(或者,驱动模块)以旋转显示器260。通过此,传感器模块240、音频模块280和相机模块291中的至少一个可以与显示器260一起移动以面向用户。
接下来,在操作1315中,处理器210可以确定在显示器260上的显示区域。此时,处理器210可以基于用户方向确定显示器260上的显示区域。这里,处理器210可以确定显示器260的至少一部分中的显示区域。例如,处理器210可以确定显示器260的参考区域中的显示区域。也就是说,处理器210可以使显示区域的中心对应于显示器260的中心。此后,处理器210可以返回到图10。
另一方面,当在操作1311中确定不需要移动显示器260时,处理器210可以进行到操作1315。也就是说,处理器210可以确定显示器260上的显示区域而不移动显示器。此后,处理器210可以返回到图10。
图14示出了根据本公开的各种实施例的图10中的用户面向显示器移动操作的流程图。
参照图14,在操作1411中,处理器210可以确定是否移动显示器260。为此,处理器210可以将显示器260的显示方向与用户方向进行比较。也就是说,处理器210可以确定显示器260的显示方向是否对应于用户方向。当确定显示器260的显示方向对应于用户方向时,处理器210可以确定不必移动显示器260。另一方面,当确定显示器260的显示方向不对应于用户方向时,处理器210可以确定需要移动显示器260。
接下来,当在操作1411中确定需要移动显示器260时,处理器210可以在操作1413中移动显示器260以面向用户。此时,处理器210可以移动显示器260以对应于用户方向。也就是说,处理器210可以移动显示器260,使得显示器260的显示方向对应于用户方向。为此,处理器210可以围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转显示器260。这里,处理器210可以控制电机298(或者,驱动模块)以旋转显示器260。通过此,传感器模块240、音频模块280和相机模块291中的至少一个可以与显示器260一起移动以面向用户。
接下来,处理器210可以在操作1415中识别用户。此时,处理器210可以基于用户的声纹和用户的面部中的至少一个来识别当前用户。这里,处理器210可以将当前用户的声纹与先前存储的用户的声纹进行比较以识别当前用户。例如,当当前用户的声纹类似于先前存储的迈克的声纹时,处理器210可将当前用户识别为“迈克”。或者,处理器210可以将当前用户的面部与先前存储的用户的面部进行比较,以便识别当前用户。例如,当当前用户的面部类似于先前存储的迈克的面部时,处理器210可将当前用户识别为“迈克”。
接下来,处理器210可以在操作1417中确定是否存在对应于用户的预先登记的用户数据。例如,用户数据可以包括文本、图像和音频信号中的至少一个。
接下来,当在操作1417中确定存在用户数据时,处理器210可以在操作1419中输出用户数据。这里,处理器210可以通过显示器260和音频模块280中的至少一个输出用户数据。例如,处理器210可以将用户数据“晚上好迈克!”输出到显示器260,如图19所示。此后,处理器210可以返回到图10。
另一方面,当在操作1417中确定没有用户数据时,处理器210可以返回到图10。
最后,处理器210可以在操作1015中执行该功能。此时,处理器210可以显示功能执行屏幕。另外,处理器210可以控制功能执行屏幕。同时,处理器210可以在执行功能的同时连续跟踪用户。也就是说,处理器210可以连续地检测用户方向。当此时用户方向改变时,处理器210可以移动显示器260以面向用户。处理器210可以移动显示器260以对应于用户方向。由此,可以终止电子设备201的操作方法。
图15示出了根据本公开的各种实施例的图10中的功能执行操作的流程图。
参考图15,处理器210可以在操作1511中显示功能执行屏幕。处理器210可以在显示器260上显示功能执行屏幕。此时,处理器210可以基于用户距离显示功能执行屏幕。也就是说,处理器210可以放大或缩小功能执行屏幕以对应于用户距离。另一方面,处理器210可以在显示器260上的显示区域中显示功能执行屏幕。例如,功能执行屏幕可以配置有至少一个页面。当功能执行屏幕配置有多个页面时,处理器210可以显示任何一个页面。这里,处理器210可以基于声学语音显示功能执行屏幕。例如,处理器210可以根据与声学语音相对应的文本显示功能执行屏幕。
根据实施例,处理器210可以执行音乐文件回放功能,如图20A和20B所示。例如,当用户距离等于或长于预定阈值时,处理器210可以放大功能执行屏幕并且可以显示放大的功能执行屏幕,如图20A所示。或者,当用户距离小于阈值时,处理器210可以缩小功能执行屏幕并显示缩小的功能执行屏幕,如图20B所示。另外,处理器210可以根据用户距离确定在功能执行屏幕上显示的对象的尺寸和数量中的至少一个。
根据另一实施例,处理器210可以执行天气通知功能,如图21A和21B所示。为此,处理器210可以经由通信模块220下载天气信息。例如,处理器210可以从外部设备下载天气信息。外部设备可以包括电子设备和服务器中的至少一个。另外,处理器210可以在天气通知功能的功能执行屏幕上显示天气信息,如图21A和21B所示。这里,处理器210可以以图像和文本中的至少一个表示天气信息。同时,处理器210可以将时间信息与天气信息一起显示。
根据另一实施例,处理器210可以执行日程管理功能,如图22所示。此时,处理器210可以检测与用户对应的日程信息。例如,处理器210可以在先前存储的用户的日程信息中检测当前用户的日程信息。或者,处理器210可以通过通信模块220下载当前用户的日程信息。例如,处理器210可以从外部设备下载用户的日程信息。外部设备可以包括电子设备和服务器中的至少一个。处理器210可以在日程管理功能的功能执行屏幕上显示用户的日程信息。
根据另一实施例,处理器210可以执行健康护理功能,如图23所示。此时,处理器210可以检测先前存储的用户的健康数据。另外,处理器210可以在健康护理功能的功能执行屏幕上共同显示健康数据。
接下来,当生成控制命令时,处理器210可以在操作1513中检测到这一点。例如,处理器210可以使用输入设备(例如,输入设备150)和音频模块280中的至少一个来检测控制命令。也就是说,处理器210可以从声学语音检测控制命令。或者,处理器210可以从输入设备150的输入信号检测控制命令。
例如,当接收到用户的声学语音时,处理器210可以检测声学语音。当在音频模块280中检测到声学语音时,处理器210可以检测声学语音。为此,音频模块280可以经由麦克风288收集音频信号。此外,音频模块280可以分析音频信号以检测声学语音。此时,音频模块280可以基于音频信号的波形来检测声学语音。
之后,处理器210可以识别声学语音。此时,处理器210可以从声学语音提取语言信息。例如,处理器210可以将声学语音的波形转换为文本。然后,处理器210可以确定声学语音是否对应于控制命令。例如,处理器210可以确定与声学语音相对应的文本是否表示控制命令。
接下来,当在操作1513中确定声学语音对应于控制命令时,处理器210可以在操作1515中控制功能执行屏幕。处理器210可以基于控制命令控制功能执行屏幕。例如,处理器210可以将改变、移动、放大或缩小中的至少一个应用于功能执行屏幕。或者,例如,当功能执行屏幕由多个页面组成时,处理器210可以调用并显示另一个页面。
根据实施例,处理器210可以执行设置功能,如图24A至24C所示。例如,处理器210可以显示设置功能的功能执行屏幕,如图24A所示。当接收到用户的声学语音时,处理器210可以识别声学语音,如图24B所示。处理器210可以将声学语音的波形转换为文本。当声学语音识别完成时,处理器210可以在功能执行屏幕上显示文本,如图24C所示。通过此,处理器210可以从文本检测控制命令以设置警报。也就是说,处理器210可以从文本中提取警报日期、警报时间和警报方法中的至少一个以设置警报。
根据另一实施例,处理器210可以执行电子文档输出功能,如图25A和25B以及图26A至26D所示。处理器210可以显示电子文档输出功能的功能执行屏幕,如图25A所示。这里,处理器210可以显示至少一个电子文档的列表。当检测到用于选择电子文档的控制命令时,处理器210可以显示电子文档的基本信息,如图25B所示。例如,电子文档可以是烹饪食谱,并且基本信息可以包括菜肴名称、所需时间和偏好中的至少一个。另一方面,当检测到用于选择电子文档的控制命令时,处理器210可以显示电子文档的任何一个页面,如图26A所示。当检测到用于页面切换的控制命令时,处理器210可以显示页面中的另一个页面,如图26B至26D所示。
根据另一实施例,处理器210可以执行远程控制功能,如图27A至27C所示。例如,处理器210可以显示遥控功能的功能执行屏幕。这里,处理器210可以以与图24A所示的类似的方式显示功能执行屏幕。当接收到用户的声学语音时,处理器210可以识别声学语音。处理器210可以将声学语音的波形转换为文本。这里,处理器210可以以类似于图24B的方式功能执行屏幕。当声学语音识别完成时,处理器210可以在图27A或27B的功能执行屏幕上显示文本。另外,处理器210可以分析文本以检测一个或多个外部设备、每个外部设备的控制条件等。处理器210可以在功能执行屏幕上显示与每个外部设备及其控制条件相对应的至少一个控制卡。另外,当检测到用于合并多个控制卡的控制命令时,处理器210可以合并控制卡,如图27C所示。由此,处理器210可以存储与外部设备相对应的控制条件,并且可以根据控制条件来控制外部设备。
根据另一实施例,处理器210可以执行通信管理功能,如图28A和28B以及图29A和29B所示。处理器210可以显示通信管理功能的功能执行屏幕。例如,处理器210可以在功能执行屏幕上显示未接来电的数量,如图28A所示,或者可以在功能执行屏幕上显示未确认消息的数量,如图28B所示。当检测到用于确认未识别消息的控制命令时,处理器210可以在功能执行屏幕上显示未确认消息,如图29A所示。当接收到声学语音时,处理器210可以识别声学语音。处理器210可以将声学语音的波形转换为文本。然后,处理器210以文本的形式生成并发送传输消息,并且可以在功能执行屏幕上显示传输消息,如图29B所示。
接下来,处理器210可以在功能执行期间在操作1517中追踪用户。也就是说,处理器210可以连续地检测用户方向。当此时用户方向改变时,处理器210可以移动显示器260以面向用户。处理器210可以移动显示器260以对应于用户方向。例如,处理器210可以移动显示器260,同时保持在显示器260上的显示方向。也就是说,在移动显示器260的同时,处理器210可以在与显示器260的移动方向相反的方向上移动显示器260上的显示区域。然后,当显示器260的移动完成时,处理器210可以在显示器260的移动方向上移动显示器260上的显示区域。也就是说,处理器210可以将显示区域从显示器260移动到原始位置。另一方面,当用户方向未改变时,处理器210可以在不移动显示器260的情况下保持显示器260的显示方向。
图16示出了根据本公开的各种实施例的图15中的用户跟踪操作的流程图。
参照图16,处理器210可以在操作1611中获取图像数据。例如,相机模块291可以捕获图像数据,并且处理器210可以从相机模块291获取图像数据。
接下来,处理器210可以在操作1613中从图像数据检测用户的面部。例如,处理器210可以使用面部提取方法、面部识别方法、面部方向性检测方法和眼睛跟踪方法中的至少一个来检测用户的面部。
根据面部提取方法,处理器210可以从图像数据区将与面部对应的面部区域和背景区域区分开。由此,处理器210可以检测图像数据中的面部尺寸和面部位置中的至少一个。根据面部识别方法,处理器210可以通过从图像数据检测诸如眼睛、鼻子和嘴巴的特征点来检测面部。通过此,处理器210可以基于面部的特征点来识别用户。根据面部方向性检测方法,处理器210可以在图像数据中识别面部的方向,例如,正面或侧面。根据眼睛跟踪方法,处理器210可以识别图像数据中的眼睛,并且可以从眼睛的运动跟踪凝视。由此,处理器210可以检测图像数据中眼睛的尺寸和眼睛的位置中的至少一个。
接下来,处理器210可以在操作1615中确定用户方向。此时,处理器210可以基于图像数据中的用户的面部来确定用户方向。例如,处理器210可以确定用户方向以对应于图像数据中的面部的位置或面部中的眼睛的位置。
接下来,在操作1617中,处理器210可以确定是否移动显示器260。为此,处理器210可以将显示器260的显示方向与用户方向进行比较。也就是说,处理器210可以确定显示器260的显示方向是否对应于用户方向。当确定显示器260的显示方向对应于用户方向时,处理器210可以确定不必移动显示器260。另一方面,当确定显示器260的显示方向不对应于用户方向时,处理器210可以确定需要移动显示器260。
接下来,当在操作1617中确定需要移动显示器260时,处理器210可以在操作1619中移动显示器260以面向用户。此时,处理器210可以移动显示器260以对应于用户方向。通过此,传感器模块240、音频模块280和相机模块291中的至少一个可以与显示器260一起移动以面向用户。
图17示出了根据本公开的各种实施例的图16中的显示移动操作的流程图。
参考图17,在操作1711中,处理器210可以移动显示器260以对应于用户方向。为此,处理器210可以确定显示器260的移动控制参数,使得显示器260的显示方向对应于用户方向。例如,处理器210可以计算显示器260的旋转角度,该旋转角度在z轴、y轴和与z轴和y轴正交的x轴中的至少一个与用户方向之间。另外,处理器210可以基于显示器260的旋转角度确定移动控制参数。通过此,处理器210可以基于运动控制参数移动显示器260。也就是说,处理器210可以控制电机298(可选地,驱动模块),以使显示器260围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转。
接下来,处理器210可以在操作1713中移动在显示器260上的显示区域。此时,处理器210可以响应于显示器260的移动而在显示器260上移动显示区域。为此,处理器210可以基于运动控制参数确定显示区域的显示控制参数。例如,处理器210可以将预定阈值角度应用于显示器260的旋转角度,以确定显示区域的移动方向和移动距离。由此,处理器210可以基于移动方向和移动距离移动在显示器260上显示区域。也就是说,处理器210可以围绕z轴、y轴和垂直于z轴和y轴的x轴中的至少一个旋转显示器260上的显示区域。这里,显示区域的移动距离根据显示器260的旋转角度的大小来确定,并且显示区域的移动方向可以与显示器260的旋转角度的方向性相反。例如,处理器210可以从显示器260上的参考区域移动显示区域。也就是说,处理器210可以从显示器260的中心移动到显示区域的中心。
接下来,当完成显示器260的移动时,处理器210可以在操作1715中检测到这一点。另外,在操作1717中,处理器210可以使在显示器260上的显示区域返回。例如,处理器210可以将显示区域返回到显示器260的参考区域。也就是说,处理器210可以使显示区域的中心对应于显示器260的中心。此后,处理器210可以返回到图15。
另一方面,当在操作1715中未完成显示器260的移动时,处理器210可以返回到操作1711。然后,处理器210可以重复执行操作1711至1715。
根据实施例,处理器210可以围绕z轴在第一旋转方向上旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30A(a)所示。另外,处理器210可以围绕z轴逆时针移动显示器260,如图30A(b)所示。相应地,处理器210可以围绕z轴顺时针移动显示器260上的显示区域,如图30A(b)所示。也就是说,处理器210可以从参考区域绕z轴顺时针移动显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域绕z轴逆时针返回,如图30A(c)所示。也就是说,处理器210可以将显示区域返回到显示器260的参考区域。
或者,处理器210可以将显示区域放置在显示器260的参考区域,如图31A(a)所示。另外,处理器210可以围绕z轴逆时针移动显示器260,如图31A(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕z轴逆时针地连续移动显示器260上的显示区域,如图31A(c)所示。也就是说,处理器210可以将显示器260上的显示区域绕z轴逆时针移动距参考区域预设的移动距离。此后,处理器210可以使显示器260上的显示区域绕z轴顺时针返回,如图31A(d)所示。也就是说,处理器210可以将显示器260上的显示区域绕z轴顺时针移动距参考区域的预设移动距离。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
根据另一实施例,处理器210可以围绕z轴在第二旋转方向上旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30B(a)所示。另外,处理器210可以围绕z轴顺时针移动显示器260,如图30B(b)所示。相应地,处理器210可以围绕z轴逆时针移动显示器260上的显示区域,如图30B(b)所示。也就是说,处理器210可以从参考区域绕z轴逆时针移动显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域绕z轴顺时针返回,如图30B(c)所示。也就是说,处理器210可以将显示区域返回到显示器260的参考区域。
或者,处理器210可以将显示区域放置在显示器260的参考区域,如图31B(a)所示。另外,处理器210可以围绕z轴顺时针移动显示器260,如图31B(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕z轴顺时针地连续移动显示器260上的显示区域,如图31B(c)所示。也就是说,处理器210可以将显示器260上的显示区域绕z轴顺时针移动距参考区域的预设移动距离。此后,处理器210可以使显示器260上的显示区域绕z轴逆时针地返回,如图31B(d)所示。也就是说,处理器210可以将显示器260上的显示区域绕z轴逆时针移动距参考区域预设的移动距离。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
根据实施例,处理器210可以围绕y轴在第三旋转方向上旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30C(a)所示。另外,处理器210可以围绕y轴顺时针移动显示器260,如图30C(b)所示。相应地,处理器210可以围绕y轴逆时针移动显示器260上的显示区域,如图30C(b)所示。也就是说,处理器210可以从参考区域绕y轴逆时针移动显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域绕y轴顺时针返回,如图30C(c)所示。也就是说,处理器210可以将显示区域返回到显示器260的参考区域。
或者,处理器210可以将显示区域放置在显示器260的参考区域,如图31C(a)所示。另外,处理器210可以围绕y轴顺时针移动显示器260,如图31C(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕y轴顺时针地连续移动显示器260上的显示区域,如图31C(c)所示。也就是说,处理器210可以将显示器260上的显示区域绕y轴顺时针移动距参考区域的预设移动距离。此后,处理器210可以使显示器260上的显示区域绕y轴逆时针地返回,如图31C(d)所示。也就是说,处理器210可以将显示器260上的显示区域绕y轴逆时针移动距参考区域预设的移动距离。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
根据实施例,处理器210可以围绕y轴在第四旋转方向上旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30D(a)所示。另外,处理器210可以围绕y轴逆时针移动显示器260,如图30D(b)所示。相应地,处理器210可以围绕y轴顺时针移动显示器260上的显示区域,如图30D(b)所示。也就是说,处理器210可以从参考区域绕y轴顺时针移动显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域绕y轴逆时针返回,如图30D(c)所示。也就是说,处理器210可以将显示区域返回到显示器260的参考区域。
或者,处理器210可以将显示区域放置在显示器260的参考区域中,如图31D(a)所示。另外,处理器210可以围绕y轴逆时针移动显示器260,如图31D(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕y轴逆时针地连续移动显示器260上的显示区域,如图31D(c)所示。也就是说,处理器210可以将显示器260上的显示区域绕y轴逆时针移动距参考区域预设的移动距离。此后,处理器210可以使显示器260上的显示区域绕y轴顺时针地返回,如图31D(d)所示。也就是说,处理器210可以将显示器260上的显示区域绕y轴顺时针移动距参考区域的预设移动距离。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
根据实施例,处理器210可以围绕z轴和y轴旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30E(a)所示。另外,处理器210可以围绕z轴和y轴之间的对角线逆时针移动显示器260,如图30E(b)所示。相应地,处理器210可以围绕z轴和y轴之间的对角线顺时针移动显示器260上的显示区域,如图30E(b)所示。也就是说,处理器210可以从参考区域围绕z轴和y轴之间的对角线顺时针移动显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域围绕z轴和y轴之间的对角线逆时针返回,如图30E(c)所示。也就是说,处理器210可以将显示区域返回到显示器260的参考区域。
或者,处理器210可以将显示区域放置在显示器260的参考区域中,如图31E(a)所示。另外,处理器210可以围绕z轴和y轴之间的对角线逆时针移动显示器260,如图31E(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕z轴和y轴之间的对角线逆时针地连续移动显示器260上的显示区域,如图31E(c)所示。也就是说,处理器210可以从参考区域围绕z轴和y轴之间的对角线逆时针移动显示器260上的显示区域距参考区域的预设移动距离。相应地,处理器210可以使显示器260上的显示区域围绕z轴和y轴之间的对角线顺时针地返回,如图31E(d)所示。也就是说,处理器210可以从参考区域围绕z轴和y轴之间的对角线顺时针移动显示器260上的显示区域。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
根据实施例,处理器210可以围绕正交于z轴和y轴的x轴旋转显示器260。
例如,处理器210可以将显示区域放置在显示器260的参考区域中,如图30F(a)所示。另外,处理器210可以围绕x轴逆时针移动显示器260,如图30F(b)所示。相应地,处理器210可以围绕x轴顺时针旋转显示器260上的显示区域,如图30F(b)所示。也就是说,处理器210可以从参考区域绕x轴顺时针旋转显示器260上的显示区域。另外,当显示器260的移动完成时,处理器210可以使显示器260上的显示区域绕x轴逆时针返回。也就是说,处理器210可以从显示器260的参考区域使显示区域返回。
或者,处理器210可以将显示区域放置在显示器260的参考区域中,如图31F(a)所示。另外,处理器210可以围绕x轴逆时针移动显示器260,如图31F(b)所示。另外,当显示器260的移动完成时,处理器210可以围绕x轴逆时针地连续移动显示器260上的显示区域,如图31F(c)所示。也就是说,处理器210可以将显示器260上的显示区域绕x轴逆时针移动距参考区域预设的移动距离。此后,处理器210可以绕x轴顺时针地返回显示器260上的显示区域,如图31F(d)所示。也就是说,处理器210可以使显示器260上的显示区域绕x轴顺时针移动距参考区域的预设移动距离。通过此,处理器210可以将显示区域返回到显示器260的参考区域。
接下来,当终止执行功能时,处理器210可以在操作1519中检测到这一点。此后,处理器210可以返回到图10。
另一方面,当在操作1519中未终止功能时,处理器210可以返回到操作1511。然后,处理器210可以重复执行操作1511至1519中的至少一个。
由此,可以终止电子设备201的操作方法。
根据各种实施例,可以通过各种类型的电子设备提供个性化交互,并且可以通过交互向用户提供个性感。
根据各种实施例,操作智能电子设备201的方法可以包括基于接收的声音语音检测用户,移动显示器260以面向用户,以及通过显示器260执行功能。
根据各种实施例,操作智能电子设备201的方法还可包括检测要拍摄的图像数据中的面部,以及响应于面部移动显示器260。
根据各种实施例,操作智能电子设备201的方法还可包括在执行功能期间跟踪面部并移动显示器以对应于面部。
根据各种实施例,操作智能电子设备201的方法还可包括检测从电子设备201到用户的距离。
根据各种实施例,功能的执行可以包括确定用于显示的屏幕并基于距离显示屏幕。
根据各种实施例,显示器260的移动可以使显示器260围绕穿过电子设备201的三个相互正交的轴中的至少一个旋转。
根据各种实施例,功能的执行可以包括显示显示要执行的功能的屏幕,基于接收的声音语音检测控制命令,以及基于控制命令控制功能。
根据各种实施例,显示器260可以实现为触摸屏。
根据各种实施例,功能的执行还可包括基于输入到触摸屏的信号来检测控制命令。
这里使用的术语“模块”可以例如表示包括硬件、软件和固件之一或者它们中的两个或更多个的组合的单元。“模块”可以与例如术语“单元”、“逻辑”、“逻辑块”、“部件”或“电路”互换使用。“模块”可以是集成部件元件或其一部分的最小单元。“模块”可以是用于执行一个或多个功能或其一部分的最小单元。“模块”可以机械地或电子地实现。例如,根据本公开的“模块”可以包括用于执行操作的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑器件中的至少一个,其是已知的或将要在之后开发。
根据各种实施例,根据本公开的设备(例如,模块或其功能)或方法(例如,操作)中的至少一些可以通过以编程模块形式存储在计算机可读存储介质中的命令来实现。当由处理器(例如,处理器120)执行时,该指令可以使一个或多个处理器执行与该指令相对应的功能。计算机可读存储介质可以是例如存储器130。
计算机可读记录介质可包括硬盘,软盘,磁介质(例如,磁带),光学介质(例如,光盘只读存储器(CD-ROM)和数字通用盘(DVD)),磁光介质(例如,光磁盘),硬件设备(例如,只读存储器(ROM),随机存取存储器(RAM),闪存等。另外,程序指令可以包括高级语言代码,其可以通过使用解释器在计算机中执行,以及由编译器产生的机器代码。前述硬件设备可以被配置为作为一个或多个软件模块操作,以便执行本公开的操作,反之亦然。
根据本公开的编程模块可以包括前述部件中的一个或多个,或者可以进一步包括其他附加部件,或者可以省略一些上述部件。由根据本公开的各种实施例的模块、编程模块或其他部件元件执行的操作可以顺序地、并行地、重复地或以启发式方式执行。此外,一些操作可以以不同的顺序执行或者可以省略,或者可以添加其他操作。
虽然已经参考本公开的各种实施例示出并描述了本公开,但是本领域技术人员将理解,在不脱离通过所附权利要求及其等同物所定义的本公开的精神和范围的情况下,可以在其中进行形式和细节上的各种改变。

Claims (15)

1.一种电子设备,包括:
基座;
固定头,其设置在基座的上部部分上;
驱动单元,其设置在固定头的内部空间中;
可移动头,其围绕固定头的至少一部分,并且设置成能够通过固定到驱动单元的至少一部分而移动;
至少一个传感器模块,其设置在可移动头或基座的至少一部分中;以及
至少一个处理器,其配置为:
经由传感器模块检测输入,以及
根据与检测到的输入对应的参数,经由驱动单元,控制以使可移动头在确定的方向上移动,
其中,所述驱动单元包括:
第一驱动单元,其配置为移动可移动头,使得可移动头能够绕第一轴线旋转,
其中,所述第一驱动单元包括:
旋转板,其设置成能够在固定头内自转;
第一固定件,其固定到旋转板;
第一齿轮,其设置成与旋转板同轴地旋转;和
第一驱动电机,其设置在固定头内并旋转第一齿轮,并且
其中,可移动头的一部分固定到第一固定件,使得当第一齿轮根据第一驱动电机的驱动而旋转时,固定到第一固定件的可移动头移动。
2.根据权利要求1所述的电子设备,
其中,所述可移动头包括显示器,和
其中,所述至少一个处理器还被配置为移动可移动头,使得可移动头参照显示器指向输入的方向。
3.根据权利要求1的电子设备,其中,所述至少一个传感器模块包括以下中的至少一个:
图像传感器,其配置为检测外部对象的移动;
声音检测传感器,其配置为检测外部声音;
温度感测传感器,其配置为检测外部温度;
气味传感器,其配置为检测外部气味;或
大气压力传感器,其配置为检测大气压力。
4.根据权利要求1所述的电子设备,其中,所述输入包括外部声音、外部温度、外部大气压力或外部对象的手势中的至少一个。
5.根据权利要求1所述的电子设备,其中,所述可移动头还包括输出设备,
所述输出设备包括扬声器设备、麦克风设备、振动设备或视觉指示器设备中的至少一个。
6.根据权利要求1所述的电子设备,其中,所述驱动单元还包括:
第二驱动单元,其配置为移动可移动头,使得可移动头能够绕垂直于第一轴线的第二轴线旋转。
7.根据权利要求6所述的电子设备,
其中第一驱动电机包括与第一齿轮啮合的小齿轮。
8.根据权利要求7所述的电子设备,
其中,所述第二驱动单元包括:
第二齿轮,其设置在齿轮固定轴上,所述齿轮固定轴从第一固定板延伸以与第一固定件一起旋转;和
第二驱动电机,其设置在旋转板上并包括与第二齿轮啮合的小齿轮,并且
其中,当第二齿轮根据第二驱动电机的驱动而旋转时,固定到第一固定件的可移动头移动。
9.根据权利要求8所述的电子设备,其中,所述第一驱动单元和所述第二驱动单元在所述至少一个处理器的控制下单独或一起操作。
10.一种电子设备,包括:
基座;
固定头,其设置在基座的上部部分上;
驱动单元,其设置在固定头的内部空间中;
可移动头,其围绕固定头的至少一部分,并且设置成能够通过固定到驱动单元的至少一部分而移动,可移动头包括显示器;以及
至少一个处理器,其功能上连接到显示器和驱动单元,
其中,所述至少一个处理器配置为:
基于接收的声音语音检测用户,
移动显示器以面向用户,并且
通过显示器执行功能,
其中,所述驱动单元包括:
第一驱动单元,其配置为移动可移动头,使得可移动头能够绕第一轴线旋转,
其中,所述第一驱动单元包括:
旋转板,其设置成能够在固定头内自转;
第一固定件,其固定到旋转板;
第一齿轮,其设置成与旋转板同轴地旋转;和
第一驱动电机,其设置在固定头内并旋转第一齿轮,并且
其中,可移动头的一部分固定到第一固定件,使得当第一齿轮根据第一驱动电机的驱动而旋转时,固定到第一固定件的可移动头移动。
11.根据权利要求10所述的电子设备,还包括:
相机模块,其配置为捕获图像数据,
其中,所述至少一个处理器还配置为:
检测图像数据中的面部,和
移动显示器以对应于面部。
12.根据权利要求10所述的电子设备,其中,所述至少一个处理器还被配置为控制驱动单元以使显示器围绕穿过电子设备的三个相互正交的轴中的至少一个旋转。
13.根据权利要求11所述的电子设备,其中,所述至少一个处理器还被配置为:
响应于显示器的移动而显示第一屏幕;和
响应于声音语音的处理而显示第二屏幕。
14.一种操作智能电子设备的方法,所述方法包括:
基于接收的声音语音检测用户;
移动智能电子设备的显示器以面向用户;和
通过显示器执行功能,
其中所述电子设备包括:
基座;
固定头,其设置在基座的上部部分上;
驱动单元,其设置在固定头的内部空间中;以及
可移动头,其围绕固定头的至少一部分,并且设置成能够通过固定到驱动单元的至少一部分而移动,可移动头包括所述显示器,
其中,所述驱动单元包括:
第一驱动单元,其配置为移动可移动头,使得可移动头能够绕第一轴线旋转,
其中,所述第一驱动单元包括:
旋转板,其设置成能够在固定头内自转;
第一固定件,其固定到旋转板;
第一齿轮,其设置成与旋转板同轴地旋转;和
第一驱动电机,其设置在固定头内并旋转第一齿轮,并且
其中,可移动头的一部分固定到第一固定件,使得当第一齿轮根据第一驱动电机的驱动而旋转时,固定到第一固定件的可移动头移动。
15.根据权利要求14所述的方法,还包括:
从捕获的图像数据检测面部;和
移动显示器以对应于面部。
CN201780019934.1A 2016-03-24 2017-03-17 智能电子设备及其操作方法 Active CN109154858B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0035336 2016-03-24
KR1020160035336A KR102537543B1 (ko) 2016-03-24 2016-03-24 지능형 전자 장치 및 그 동작 방법
PCT/KR2017/002878 WO2017164567A1 (en) 2016-03-24 2017-03-17 Intelligent electronic device and method of operating the same

Publications (2)

Publication Number Publication Date
CN109154858A CN109154858A (zh) 2019-01-04
CN109154858B true CN109154858B (zh) 2021-11-09

Family

ID=59897364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780019934.1A Active CN109154858B (zh) 2016-03-24 2017-03-17 智能电子设备及其操作方法

Country Status (5)

Country Link
US (1) US10402625B2 (zh)
EP (1) EP3411780B1 (zh)
KR (1) KR102537543B1 (zh)
CN (1) CN109154858B (zh)
WO (1) WO2017164567A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467510B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Intelligent assistant
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US10264358B2 (en) * 2017-02-15 2019-04-16 Amazon Technologies, Inc. Selection of master device for synchronized audio
US10839795B2 (en) 2017-02-15 2020-11-17 Amazon Technologies, Inc. Implicit target selection for multiple audio playback devices in an environment
KR102498263B1 (ko) * 2018-01-05 2023-02-09 구글 엘엘씨 어시스턴트 디바이스의 디스플레이에 렌더링할 콘텐츠 선택
US20190236976A1 (en) * 2018-01-31 2019-08-01 Rnd64 Limited Intelligent personal assistant device
WO2019221894A1 (en) * 2018-05-15 2019-11-21 Microsoft Technology Licensing, Llc Intelligent device user interactions
KR102093822B1 (ko) 2018-11-12 2020-03-26 한국과학기술연구원 음원 분리 장치
KR20200139551A (ko) * 2019-06-04 2020-12-14 삼성전자주식회사 전자 장치의 일부를 이동시키기 위한 방법 및 이를 지원하는 전자 장치
CN110989831B (zh) * 2019-11-15 2021-04-27 歌尔股份有限公司 音频设备的控制方法、音频设备及存储介质
CN113851051A (zh) * 2021-09-25 2021-12-28 安徽颍创科技有限公司 一种可移动的多功能智慧终端显示屏
KR102589834B1 (ko) * 2021-12-28 2023-10-16 동의과학대학교 산학협력단 치매 스크리닝 디퓨저 장치
CN117192824B (zh) * 2023-11-08 2024-01-23 宜宾本信电子科技有限公司 一种用于液晶屏生产的测试装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200367764Y1 (ko) * 2004-05-29 2004-11-17 한기봉 디스플레이어의 위치 제어 장치
CN1750620A (zh) * 2004-09-17 2006-03-22 索尼株式会社 图像显示设备、图像显示方法、以及信号处理设备
CN102256079A (zh) * 2010-05-19 2011-11-23 索尼公司 信息处理系统和信息处理装置
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US20060007191A1 (en) * 2004-06-03 2006-01-12 International Business Machines Corporation System and method for adjusting a screen
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
KR100657323B1 (ko) * 2005-07-04 2006-12-14 삼성전자주식회사 스캐너의 캐리어 위치 검출장치 및 방법
EP1941411B1 (en) * 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
US7654348B2 (en) * 2006-10-06 2010-02-02 Irobot Corporation Maneuvering robotic vehicles having a positionable sensor head
CN101558367A (zh) * 2006-12-05 2009-10-14 索尼爱立信移动通讯有限公司 用于检测物体移动的方法和系统
KR100883467B1 (ko) 2007-07-11 2009-02-16 (주)케이티에프테크놀로지스 통화자 얼굴 추적 이동통신단말기 거치대 및이동통신단말기
GB2467759A (en) * 2009-02-12 2010-08-18 Sony Espana Sa User interface which scrolls items to select in a direction based on the orientation of a control unit
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
AU2014236686B2 (en) 2013-03-15 2017-06-15 Ntt Disruption Us, Inc. Apparatus and methods for providing a persistent companion device
WO2015034542A1 (en) 2013-09-09 2015-03-12 Intel Corporation Orientation of display rendering on a display based on position of user
JP6586617B2 (ja) 2013-09-25 2019-10-09 株式会社グラモ 音声認識装置、方法、及びコンピュータプログラム
KR20150065359A (ko) 2013-12-05 2015-06-15 (주) 퓨처로봇 스마트기기의 탈부착 가능한 로봇
CN203689161U (zh) * 2013-12-23 2014-07-02 张志增 自动调节型显示设备
CN204156975U (zh) * 2014-09-02 2015-02-11 刘泗嘉 可移动的远程替身视频通讯装置
US9845850B2 (en) * 2015-01-30 2017-12-19 Irobot Corporation Robotic arm and wrist mechanisms

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200367764Y1 (ko) * 2004-05-29 2004-11-17 한기봉 디스플레이어의 위치 제어 장치
CN1750620A (zh) * 2004-09-17 2006-03-22 索尼株式会社 图像显示设备、图像显示方法、以及信号处理设备
CN102256079A (zh) * 2010-05-19 2011-11-23 索尼公司 信息处理系统和信息处理装置
CN104951077A (zh) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法、装置和终端设备

Also Published As

Publication number Publication date
WO2017164567A1 (en) 2017-09-28
KR102537543B1 (ko) 2023-05-26
CN109154858A (zh) 2019-01-04
KR20170110919A (ko) 2017-10-12
US10402625B2 (en) 2019-09-03
EP3411780A4 (en) 2019-02-06
US20170278480A1 (en) 2017-09-28
EP3411780A1 (en) 2018-12-12
EP3411780B1 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
CN109154858B (zh) 智能电子设备及其操作方法
KR102613731B1 (ko) 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법
US11151961B2 (en) Electronic device and method of providing information in electronic device
KR102248474B1 (ko) 음성 명령 제공 방법 및 장치
CN108023934B (zh) 电子装置及其控制方法
CN106060378B (zh) 用于设置拍摄模块的装置和方法
KR20180083587A (ko) 전자 장치 및 그의 동작 방법
US20170293272A1 (en) Electronic device and method for providing information in electronic device
KR102262853B1 (ko) 복수의 마이크를 포함하는 전자 장치 및 이의 운용 방법
EP3404511B1 (en) Electronic device and method of controlling operation of electronic device
KR102329761B1 (ko) 외부 장치의 선택 및 제어를 위한 전자 장치와 그의 동작 방법
US10345924B2 (en) Method for utilizing sensor and electronic device implementing same
KR102113201B1 (ko) 기능 실행 방법 및 이를 지원하는 전자 장치
KR102436464B1 (ko) 알림 정보 제공 방법 및 그 전자 장치
CN108605261B (zh) 电子设备及其操作方法
KR102324964B1 (ko) 외부 입력 장치의 입력을 처리하는 전자 장치 및 방법
EP3410282A1 (en) Electronic device and method for controlling user interface of electronic device
EP3001300B1 (en) Method and apparatus for generating preview data
KR102256291B1 (ko) 번역 상황을 인지하고 번역 기능을 수행하는 방법 및 이를 구현하는 전자장치
CN109845251B (zh) 用于显示图像的电子设备和方法
KR102323797B1 (ko) 전자 장치 및 그의 정보 공유 방법
WO2022222688A1 (zh) 一种窗口控制方法及其设备
KR101727082B1 (ko) 측면디스플레이부를 구비한 이동단말기를 이용한 게임수행방법 및 프로그램
KR101727081B1 (ko) 측면디스플레이부를 구비한 이동단말기를 이용한 게임수행방법 및 프로그램
CN113282472B (zh) 性能测试方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant