CN104204729A - 用户终端装置及其控制方法 - Google Patents

用户终端装置及其控制方法 Download PDF

Info

Publication number
CN104204729A
CN104204729A CN201380018984.XA CN201380018984A CN104204729A CN 104204729 A CN104204729 A CN 104204729A CN 201380018984 A CN201380018984 A CN 201380018984A CN 104204729 A CN104204729 A CN 104204729A
Authority
CN
China
Prior art keywords
user
user interface
input
terminal apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380018984.XA
Other languages
English (en)
Other versions
CN104204729B (zh
Inventor
闵铉晳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN104204729A publication Critical patent/CN104204729A/zh
Application granted granted Critical
Publication of CN104204729B publication Critical patent/CN104204729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明提供了一种手持用户装置及其控制方法,所述用户终端装置包括:第一用户界面;第二用户界面;感测装置,感测手持用户装置的操作状况;控制器,如果操作状况与第一状况相应,则启用第一用户界面并禁用第二用户界面,如果操作状况与第二状况相应,则启用第二用户界面并禁用第一用户界面。

Description

用户终端装置及其控制方法
技术领域
与示例性实施例一致的设备和方法涉及一种用户终端装置及其控制方法,更具体地,涉及一种具有提高的用户可访问性和便利性特征的用户终端装置及其控制方法。
背景技术
随着电子技术的发展,各种类型的电子装置已被开发并且现在对于任何人都可使用。因此,继续的研究致力于帮助用户以更有效的方式操作这样的各种电子装置。
例如,不同类型的电子装备被安装在各种运动对象上以使用。这种电子装备的一种典型示例是导航装置。导航装置是识别车辆的当前位置并通知用户到达目的地的路线(基于给定的地图信息来获得所述路线)的装置。最近,移动终端装置也正被用作导航装置。这产生了这样的问题:当在驾驶的同时使用导航装置时,导航装置会使驾驶员不能专心驾驶,这可增加事故的风险。因此,需要对操作运动对象的任何驾驶员降低事故的风险。
此外,现代的电子装置支持各种功能。可通过包括例如语音、触摸、移动等的不同类型的输入来选择和执行这些功能。然而,由于这些输入方法不必考虑用户当前状况和访问输入方法的能力,故这些输入方法存在问题。因此,需要提高不同类型的电子装置的可访问性和便利性的新的方案。
发明内容
技术问题
一个或多个示例性实施例提供了一种具有提高的用户便利性的用户终端及其控制方法,其中,所述用户终端装置的输入模式基于关于放置有所述用户终端装置的运动对象的运动状态的信息而被切换。
技术方案
示例性实施例克服了上述缺点和上面未描述的其它缺点。另外,示例性实施例不需要克服上述缺点,并且示例性实施例可以不克服上述的任何问题。
一个或更多个示例性实施例还提供了一种具有提高的用户便利性的用户终端装置及其控制方法,其中,在所述用户终端装置中设置的选项信息基于关于放置有所述用户终端的运动对象的运动状态的信息而被切换。
一个或更多个示例性实施例还提供了一种具有提高的用户便利性的用户终端装置及其控制方法,其中,在所述用户终端装置中设置的用户界面模式基于操作所述用户终端的用户的用户配置信息而被切换。
一个或更多个示例性实施例还提供了一种具有提高的用户便利性的用户终端装置及其控制方法,其中,在所述用户终端装置中设置的GUI信息基于关于运动对象的运动状态的信息和关于运动对象的环境的信息中的至少一个信息而被切换。
根据示例性实施例的一方面,提供了一种手持用户装置,包括:第一用户界面;第二用户界面;感测装置,感测手持用户装置的操作状况;控制器,如果操作状况与第一状况相应,则启用第一用户界面并禁用第二用户界面,如果操作状况与第二状况相应,则启用第二用户界面并至少禁用第一用户界面。操作状况可以是手持用户装置的外部操作环境和手持用户装置的运动中的至少一个。
所述手持用户装置还可包括第三用户界面。如果操作状况与第一状况相应,则控制器启用第一用户界面、第二用户界面和第三用户界面中的两个用户界面并禁用剩余的用户界面,如果操作状况与第二状况相应,则控制器启用第一用户界面、第二用户界面和第三用户界面中的另外两个用户界面并禁用另一剩余的用户界面。
所述手持用户装置还可包括:通信单元,从外部装置接收关于外部操作环境的信息。
手持用户装置的外部操作环境可以是运动对象的速度、运动对象的运动、运动对象中的噪声和运动对象中的亮度中的至少一个。
第一用户界面可以是语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入,第二用户界面可以是语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
第三用户界面可以是语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
所述手持用户装置还可包括:显示单元,如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括第一图形用户界面元素,第二用户界面可包括比第一图形用户界面元素大的第二图形用户界面元素。
所述手持用户装置还可包括:显示单元,如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括第一亮度的第一屏幕,第二用户界面可包括与第一屏幕亮度不同的第二亮度的第二屏幕。
第一用户界面可输出具有第一音量的声音,第二用户界面可输出具有与第一音量不同的第二音量的声音。
所述手持用户装置还可包括:显示单元,如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括具有多个图形用户界面元素的第一布局,第二用户界面可包括具有所述多个图形用户界面元素中仅最频繁使用的图形用户界面元素的第二布局。
所述手持用户装置还可包括:显示单元,显示窗口,其中,在所述窗口中第一用户界面、第二用户界面和第三用户界面被分配了优先等级。控制器还可基于优先等级禁用所述两个启用的用户界面中的一个用户界面。
手持装置的操作环境可包括指示手持装置被附加到运动对象的状况、指示手持装置在运动对象内部的状况和指示手持装置正与运动对象一起运动的状况中的至少一个状况。
所述手持用户装置还可包括:通信单元,通过短距离无线通信接收用户设置。第一状况和第二状况可基于接收的用户设置被确定。
控制器可响应于控制器启用第一用户界面或第二用户界面来检测用户的超驰命令,产生与用户的超驰命令相应的样式数据;并基于样式数据修改第一状况和第二状况。
根据另一示例性实施例的一方面,提供了一种手持装置的控制方法,所述控制方法包括:感测手持用户装置的操作状况;如果操作状况与第一状况相应,则启用第一用户界面并至少禁用第二用户界面;如果操作状况与第二状况相应,则启用第二用户界面并禁用第一用户界面。操作状况是手持用户装置的外部操作环境和手持用户装置的运动中的至少一个。
所述启用第一用户界面的步骤还可包括:如果操作状况与第一状况相应,则启用第一用户界面、第二用户界面和第三用户界面中的两个用户界面并禁用剩余的用户界面。所述启用第二用户界面的步骤还可包括:如果操作状况与第二状况相应,则启用第一用户界面、第二用户界面和第三用户界面中的另外两个用户界面并禁用另一剩余的用户界面。
所述控制方法还可包括:从外部装置接收关于外部操作环境的信息。
手持用户装置的外部操作环境可包括运动对象的速度、运动对象的运动、运动对象中的噪声和运动对象中的亮度中的至少一个。
第一用户界面可包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入,第二用户界面可包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
第三用户界面可包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
所述控制方法还可包括:如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括第一图形用户界面元素,第二用户界面可包括比第一图形用户界面元素大的第二图形用户界面元素。
所述控制方法还可包括:如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括具有第一亮度的第一屏幕,第二用户界面可包括具有与第一亮度不同的第二亮度的第二屏幕。
第一用户界面可输出具有第一扬声器音量的声音,第二用户界面可输出具有与第一扬声器音量不同的第二扬声器音量的声音。
所述控制方法还可包括:如果第一用户界面被启用则显示第一用户界面,或者如果第二用户界面被启用则显示第二用户界面。第一用户界面可包括具有多个图形用户界面元素的第一布局,第二用户界面可包括具有所述多个图形用户界面元素中仅最频繁使用的图形用户界面元素的第二布局。
所述控制方法还可包括:显示窗口,其中,在所述窗口中第一用户界面、第二用户界面和第三用户界面被分配了优先等级;基于优先等级禁用所述两个启用的用户界面中的一个用户界面。
手持装置的操作环境可包括指示手持装置被附加到运动对象的状况、指示手持装置在运动对象内部的状况和指示手持装置正与运动对象一起运动的状况中的至少一个状况。
所述控制方法还可包括:通过短距离无线通信接收用户设置。第一状况和第二状况可基于接收的用户设置被确定。
所述控制方法还可包括:响应于控制器启用第一用户界面或第二用户界面检测用户的超驰命令,产生与用户的超驰命令相应的样式数据,存储样式数据,并基于样式数据修改第一状况和第二状况。
有益效果
根据上述的用户终端装置,可通过基于运动对象的运动状态信息和运动对象的环境信息切换在用户终端装置中设置的GUI信息,来提高用户便利性。
附图说明
通过参照附图对特定示例性实施例进行的描述,上述和/或其它方面将更加清楚,其中:
图1是示出根据示例性实施例的用户终端装置的框图;
图2是详细地示出图1的用户终端装置的框图;
图3到图5示出根据示例性实施例的用户终端装置的输入模式的切换操作;
图6示出根据示例性实施例的输入模式设置UI;
图7是描述根据示例性实施例的用户终端装置的控制方法的流程图;
图8是示出根据示例性实施例的用户终端装置的框图;
图9是详细地示出图8的用户终端装置的框图;
图10到图14示出根据示例性实施例的用户终端装置的选项信息的切换操作;
图15是描述根据示例性实施例的用户终端装置的控制方法的流程图;
图16是示出根据示例性实施例的用户终端装置的框图;
图17是详细地示出图16的用户终端装置的框图;
图18到图21示出根据示例性实施例的用户终端装置中的用户界面模式的切换操作;
图22是描述根据示例性实施例的用户终端装置的控制方法的流程图;
图23是示出根据示例性实施例的用户终端装置的框图;
图24是详细地示出图23的用户终端装置的框图;
图25到图27示出根据示例性实施例的用户终端装置的GUI信息的切换操作。
具体实施方式
将参照附图来更详细地描述特定示例性实施例。
在以下描述中,即使在不同附图中,相同的附图标号也用于相同元件。提供在所述描述中限定的事物(诸如,详细结构和元件)以助于全面理解本发明。因此,清楚的是,可在没有那些详细限定的事物的情况下实施示例性实施例。另外,由于已知功能或结构会在不必要的细节上模糊本发明,故不对已知功能或结构进行详细描述。
图1是示出根据示例性实施例的用户终端装置的框图。参照图1,用户终端装置100包括识别单元110和控制器120中的一个或多个。用户终端装置100可以是可显示运动对象的运动状态的导航装置、移动终端装置、个人数字助理(PDA)或个人计算机(PC)。
识别单元110识别用户输入。用户输入可包括以下输入中的至少一个:用户触摸输入、用户语音输入、用户运动输入、基于用户的瞳孔的运动的输入、基于用户的脑波的输入和来自另一用户终端装置的输入。
具体地,识别单元110可识别来自不同输入类型的每个输入信号。例如,当用户终端装置100的输入模式被配置为在第一输入模式下接收输入时,识别单元110可识别与第一输入模式相应的用户输入,当用户终端装置100的输入模式被配置为在第二输入模式下接收输入时,识别单元110可识别与第二输入模式相应的用户输入。
输入模式可以是用户终端装置识别用户触摸输入、用户语音输入、用户运动输入、基于用户的瞳孔的运动的输入、基于用户的脑波的输入和来自另一用户终端装置的输入中的至少一个并忽视或拒绝其它类型的输入的模式。例如,当第一输入模式是识别用户触摸输入和用户语音输入的模式,并且第二输入模式是识别用户语音输入的模式时,用户终端装置100可通过控制器120的控制,在第一输入模式下仅将用户触摸输入和用户语音输入识别为用于用户终端装置100的控制输入,并在第二输入模式下仅将用户语音输入识别为用于用户终端装置100的控制输入,如下所述。
识别单元110可包括识别用户触摸输入的触摸输入识别器、识别用户语音输入的语音输入识别器、识别用户运动输入的运动输入识别器、识别基于用户的瞳孔的运动的输入的瞳孔输入(例如,眼部跟踪等)识别器、识别基于用户的脑波的输入的脑波输入识别器和识别来自另一用户终端装置的输入的另一装置输入识别器中的至少一个。下面将参照图2提供更多细节。
控制器120控制用户终端装置100的全部操作。具体地,控制器120可基于关于放置有用户终端装置100的运动对象的运动状态的信息来切换用户终端装置的输入模式,并通过与切换的输入模式相应的方法基于输入信号执行操作。下面将参照图2提供关于控制器120的操作的更多细节。
图2是详细地示出图1的用户终端装置的框图。参照图2,用户终端装置100包括识别单元110、控制器120、传感器单元130、通信单元140、显示单元150和存储单元160中的一个或多个。
识别单元110可包括以下识别器中的至少一个:识别用户触摸输入的触摸输入识别器111、识别用户语音输入的语音输入识别器112、识别用户运动输入的运动输入识别器113、识别基于用户的瞳孔的运动的输入的瞳孔输入识别器114、识别基于用户的脑波的输入的脑波输入识别器115和识别来自另一用户终端装置的输入的另一装置输入识别器116。
具体地,触摸输入识别器111接受用户触摸输入。触摸输入识别器111还将输入触摸信号切换为电信号并将电信号输出到控制器120。这里,触摸输入识别器111可被实施为触摸面板。触摸输入识别器111还可以是与用户终端装置100的显示单元150耦合的多合一装置或者从显示单元150分离。分离的触摸输入识别器111可连接到用户终端装置100。
具体地,语音输入识别器112获取用户的语音输入,所述语音输入可包括由用户说出的命令。语音输入识别器112还将输入语音信号切换为电信号并将电信号输出到控制器120。这里,语音输入识别器112还可以被实施为麦克风。语音输入识别器112还可以是与用户终端装置100耦合的多合一装置或者从用户终端装置100分离。分离的语音输入识别器112可连接到用户终端装置100。
运动输入识别器113获取从用户运动捕捉的图像信号(例如,序列帧),并将图像信号提供给控制器120。运动输入识别器113可包括镜头和图像传感器、红外传感器或相机、加速度计、陀螺仪等。运动输入识别器113还可以是与用户终端装置100耦合的多合一装置或者从用户终端装置100分离。分离的运动输入识别器113可连接到用户终端装置100。
瞳孔输入识别器114获取从用户运动捕捉的图像信号(例如,序列帧),并将图像信号提供给控制器120。瞳孔输入识别器114可包括以下部件并由以下部件构成:前视相机,被配置和布置为这样的方式,在所述方式中,前视相机的拍摄方向面朝用户正在看的方向;至少一个红外相机,被布置为合适的形式以获得用户的单眼或双眼的图像。另外,基于实施例,瞳孔输入识别器114还可包括反射器,所述反射器具有发送可见射线并反射红外射线的特征,以获得用户的单眼或双眼的图像,所述射线不妨碍用户的眼睛。另外,瞳孔输入识别器114可以是与用户终端装置100耦合的多合一装置或者从用户终端装置100分离。分离的瞳孔输入识别器114可连接到用户终端装置100。
脑波输入识别器115获取脑波信号并将脑波信号提供给控制器120。脑波输入识别器115可包括感测用户的脑波的脑波感测电极。脑波感测电极可包括以下电极中的至少一个:检测在8Hz与13Hz之间的范围中的脑波的alpha电极、检测在13Hz与30Hz之间的范围中的脑波的beta电极、检测在30Hz与50Hz之间的范围中的脑波的gamma电极、检测在0Hz与4Hz之间的范围中的脑波的delta电极、检测在4Hz与8Hz之间的范围中的脑波的theta电极。另外,根据实施例,脑波输入识别器115还可包括:滤波器部分,对检测的脑波进行滤波;放大器,对滤波的脑波进行放大;A/D转换器。脑波输入识别器115还可以是与用户终端装置100耦合的多合一装置或者从用户终端装置100分离。分离的脑波输入识别器115可连接到用户终端装置100。
另一装置输入识别器116获取来自其它用户终端装置的输入并将输入提供给控制器120。其它用户终端装置可实施为可提供能够控制用户终端装置100的控制信号的移动终端装置、PDA、PC或远程控制器等。
传感器单元检测关于运动对象的运动状态的信息。运动对象可以是运动的任何对象。例如,运动对象可以是非人类对象(诸如汽车、公交车、轮船、火车或摩托车)或人类对象(诸如,人)。运动对象还可以是用户终端装置本身。另外,关于运动状态的信息可包括对象的运动速度、运动对象的振动、运动对象中的噪声和运动对象中的亮度中的至少一个。
传感器单元130可包括检测运动对象的速度的速度传感器131、振动传感器132、噪声传感器133和亮度传感器134中的至少一个。
具体地,速度传感器131检测运动对象的速度并将检测的信号提供给控制器120。速度传感器131可由GPS数据接收模块构成。因此,速度传感器131可使用接收的GPS数据(例如,运动对象的经度或纬度数据)检测运动对象的速度,并将检测的速度提供给控制器120。
另外,振动传感器132检测运动对象的振动并将检测的信号提供给控制器120。振动传感器132可实施为陀螺仪传感器和/或加速度传感器。因此,振动传感器132可检测运动对象的振动(相对于参考轴的梯度改变)并将检测的振动提供给控制器120。
另外,噪声传感器133检测运动对象的噪声并将检测的信号提供给控制器120。噪声传感器133可实施为噪声振动传感器、话筒和/或加速度计传感器等。因此,噪声传感器133可检测运动对象的噪声并将检测的噪声提供给控制器120。
亮度传感部134检测运动对象中的亮度并将检测的信号提供给控制器120。亮度传感器134可实施为光传感器。因此,亮度传感器134可检测运动对象中的亮度并将检测的亮度提供给控制器120。
通信单元140将用户终端装置100与外部装备连接。因此,用户终端装置100可接收操作用户终端装置100所需的各种信息、用于更新用户终端装置100的更新信息等。例如,用户终端装置100可通过通信单元140接收用于在用户终端装置100上显示的地图的更新信息和用于用户终端装置100的固件的更新信息。
因此,可通过通信单元从外部装备接收关于运动状态的信息。外部装备可以是包括速度传感器、振动传感器、噪声传感器和亮度传感器中的至少一个的装置。
因此,当用户终端装置100不具有包括在传感器单元130中的配置中的一个或多个时,可使用通过通信单元140接收的关于运动对象的运动状态的信息向用户终端装置100提供关于运动状态的信息。例如,当用户终端装置100的传感器单元130仅具有速度传感器131时,用户终端装置100可使用从外部装备接收的运动对象的运动信息、运动对象的噪声信息和运动对象中的亮度信息得知关于运动对象的运动状态的信息。
通信单元140允许用户终端装置100使用以下连接以连接到外部装备:经由局域网(LAN)和/或互联网的无线或有线连接、通过通用串行总线(USB)端口的连接、通过移动通信(诸如3G和4G)的连接、通过短距离无线通信(诸如,近场通信(NFC)、射频识别(RFID))的连接等。
显示单元150显示允许用户配置和选择用户终端装置100支持的各种功能的用户界面(UI)窗口。
具体地,显示单元150可显示UI窗口以配置用户终端装置100的输入模式。
另外,如果存在与输入模式相应的多个用户输入方法,则显示单元150可获取输入方法并显示用于对输入方法按重要性排序的UI窗口。
显示单元150可实施为液晶显示器、薄膜晶体管液晶显示器、有机发光二极管、柔性显示器和3D显示器中的至少一种。
存储单元160用于存储操作用户终端装置100所需的各种程序和数据。具体地,存储单元160可存储切换用户终端装置100的输入模式所需的预设状况、映射到多个输入模式的状况。另外,存储单元160可存储多个输入模式以及与输入模式中的每一个输入模式相应的用户输入方法。
另外,存储单元160可包括触摸数据库、语音数据库、运动数据库、瞳孔输入数据库、脑波数据库和另一装置信息数据库。触摸数据库可以是匹配和记录触摸输入类型和触摸任务的数据库。语音数据库可以是匹配和记录语音命令和语音任务的数据库。运动数据库可以是匹配和记录运动输入和运动任务的数据库。瞳孔输入数据库可以是匹配和记录瞳孔输入和瞳孔输入任务的数据库。脑波数据库可以是匹配和记录脑波输入和脑波任务的数据库。
存储单元160可实施为内建存储元件(诸如,随机存取存储器(RAM)、闪存、只读存储器(ROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、寄存器、硬盘、可移除盘、存储卡等)和可拆卸存储元件(诸如,USB存储器、CD-ROM等)。
控制器120可控制识别单元110、传感器单元130、通信单元140、显示器150和存储单元160中的一个或多个。
具体地,当通过触摸输入识别器111输入了触摸时,控制器120可控制用户终端装置100操作与输入的触摸识别单元110相应的功能。
当通过语音输入识别器112输入了语音时,控制器120可控制用户终端装置100操作与输入的语音相应的功能。基于语音输入的形式,语音识别被分类为:孤立词语识别,对每个词语进行分类并识别说出的语音;连续语音识别,识别连续词语、连续句子和对话语音;作为孤立词语识别与连续语音识别之间的中间形式的关键词辨认,检测和识别预设关键词。当输入了用户语音时,控制器120检测输入语音信号中的说出的语音的开头和结尾,并确定语音部分。控制器120可测量输入语音信号的能量,基于测量的能量对语音信号的能级进行分类,并随后通过动态规划来检测语音部分。控制器120通过基于声学模型检测被检测的语音部分内的语音信号中的音素(语音中的最小部分)来产生音素数据。控制器120随后通过将HMM(隐马尔可夫模型)概率模型应用于产生的音素数据来产生文本数据。因此,控制器120可控制用户终端装置100执行与识别的语音相应的功能。
当通过运动输入识别器113输入了运动时,控制器120可控制用户终端装置100操作与输入的运动相应的功能。可通过使用用于识别连续手运动的运动识别模块将与通过运动输入识别器113输入的用户动作相应的图像(例如,序列帧)划分为手(例如,展开的手指或折起来握拳的手指)和背景区域来实现运动识别。当输入了用户动作时,控制器120将输入图像存储为帧部分,并使用存储的帧来检测作为用户运动的目标的对象(例如,用户的手)。控制器120感测包括在帧中的对象的形状、颜色和运动中的至少一个,并检测对象。控制器120可跟踪检测的对象的运动。另外,控制器120可消除除了对象的运动之外的噪声。另外,控制器120根据跟踪的对象的形状和位置来确定运动。控制器120确定对象的形状的改变、速度、位置、方向等以及跟踪的对象的位置以确定运动。用户运动包括:抓,其是握起手的运动;指点运动,其是移动显示的光标的运动;拍动,其是以大于预设速度按照一方向移动手的运动;摇,其是左/右或上/下摇手的运动;旋转,其是旋转手的运动;伸展运动,其是展开握起的手的运动;等等。本发明的技术构思可应用于除了上述示例中的运动之外的其它运动。此外,控制器120确定对象是否在预设时间(例如,800ms)内运动到预设区域(例如,40cm×40cm的正方)之外,以确定用户运动是指点运动还是拍动。当对象在预设时间内没有运动到预设区域之外时,控制器120可把该用户运动当作指点运动。当对象在预设时间内运动到预设区域之外时,控制器120可把该用户运动当作拍动。当对象的速度被确定为等于或小于预设速度(例如,30cm/s)时,控制器120把该用户运动当作指点运动。当对象的速度被确定为高于预设速度时,控制器120把该用户运动当作拍动。因此,控制器120可控制用户终端装置100执行与输入的运动相应的功能。
当通过瞳孔输入识别器114输入了瞳孔运动时,控制器120使用瞳孔识别模块和瞳孔输入数据库来识别瞳孔输入。具体地,控制器120可使用由相机拍摄的用户的单眼或双眼的图像来检测瞳孔的中心,并随后获取检测的瞳孔中心的坐标值。这里,控制器120将能够通过使用双眼图像比使用单眼图像更准确地检测用户的固定点。在检测的瞳孔中心的坐标值被获取之后,控制器120可将前视相机记录的图像与用户的眼睛进行映射以能够确认用户的固定点,结果是能够得知用户观看显示单元150中的哪个部分的图像。因此,控制器120可控制用户终端装置100执行与瞳孔输入相应的功能。
另外,当通过脑波输入识别器115输入了脑波时,控制器120使用脑波识别模块和脑波数据库来识别脑波。脑波数据库将特定脑波数据与特定控制信号进行映射并存储它们。因此,控制器120将输入的脑波与存储在脑波数据库中的脑波数据进行比较以产生与输入的脑波数据相应的控制信号。将通过假设脑波数据库将第一脑波数据与控制信号“回车”进行映射并将第二脑波与控制信号“取消”进行映射来描述脑波输入控制。在控制器120接收第一脑波数据的情况下,控制器可控制用户终端装置100执行“回车”功能。
当通过另一装置输入识别器116输入了控制信号时,控制器120使用另一装置输入识别模块和其它装置数据库来识别控制信号。因此,控制器120可使用接收的控制信号来控制用户终端装置100。例如,从另一装置输入了“路线搜索”控制信号,控制器120可控制用户终端装置100执行“路线搜索”功能。
如上面详细描述的,如果控制器120接收触摸输入、语音输入、运动输入、瞳孔输入、脑波输入和其它装置输入,则控制器120可控制用户终端装置100执行与每个输入相应的功能。
另外,控制器120可基于关于放置有用户终端装置100的运动对象的运动状态的信息来切换用户终端装置的输入模式,并通过与切换的输入模式相应的方法基于输入信号来执行操作。换句话说,如果关于运动状态的信息满足预设状况,则控制器120将用户终端装置100的输入模式设置为第一输入模式,但是如果关于运动状态的信息满足不预设状况,则控制器120将用户终端装置100的输入模式设置为第二输入模式。
这里,预设状况可包括以下项中的至少一个:与事故危险或风险相应的对象的运动速度、运动对象的振动、运动对象中的噪声和运动对象的亮度、运动对象中的噪声和运动对象的亮度。
换句话说,随着运动对象(诸如,汽车)提速,用户控制变得困难,导致更高的事故风险。另外,运动对象的强振动或运动对象中的大噪声暗示着运动对象会在非路面上进行操作或者运动对象处于高速度,导致困难的用户控制和更高的事故风险。此外,运动对象中的较低的亮度暗示着运动对象会通过隧道或者在夜间运动,导致困难的用户控制和随后的更高的事故风险。因此,可考虑事故危险或风险来配置预设状况。
可由用户终端装置100的用户来配置预设状况。还可由用户终端装置的制造商在产品设计时配置预设状况。存储单元160可存储预设状况。
此外,将更详细地描述第一输入模式是识别用户触摸输入和用户语音输入的模式并且第二输入模式是仅识别用户语音输入的模式的示例。
在预设状况是运动对象的速度处于近似80km/h的情况下,当放置有用户终端装置100的对象的运动速度小于或等于80km/h时,控制器120可获取触摸输入和语音输入作为用于操作用户终端装置100的用户输入,但是当放置有用户终端装置100的对象的运动速度大于80km/h时,控制器120可将用户终端装置100的输入模式从第一输入模式切换为第二输入模式,并仅获取语音输入作为用于操作用户终端装置100的用户输入。
换句话说,如果高速驾驶运动对象的驾驶员为了一操作而触摸用户终端装置100的话,则驾驶员应该会查看显示的屏幕,这导致对驾驶的注意力降低,从而增加事故风险。然而,如果驾驶运动对象的驾驶员输入语音命令来操作用户终端装置100,则驾驶员可在仍然看向运动对象的前方的同时输入语音,避免驾驶时注意力降低。因此,如果对象的运动速度超出预设速度,则控制器120将输入模式切换为仅识别语音的第二输入模式,这降低了驾驶员的事故风险。
在预设状况是运动对象的振动的情况下,如果运动对象的振动低于或等于预设等级,则控制器120可获取触摸输入和语音输入作为用于操作用户终端装置100的用户输入,但是如果放置有用户终端装置100的运动对象的振动高于预设等级,则控制器120可将用户终端装置100的输入模式从第一输入模式切换为第二输入模式并仅获取将语音输入作为用于操作用户终端装置100的用户输入。
此外,在预设状况是运动对象中的噪声的情况下,如果运动对象中的噪声低于或等于预设等级,则控制器120可获取触摸输入和语音输入作为用于操作用户终端装置100的用户输入,但是如果放置有用户终端装置100的运动对象中的噪声高于预设等级,则控制器120可将用户终端装置100的输入模式从第一输入模式切换为第二输入模式并仅获取语音输入作为用于操作用户终端装置100的用户输入。
此外,在预设状况是运动对象中的亮度的情况下,如果运动对象中的亮度低于或等于预设等级,则控制器120可获取触摸输入和语音输入作为用于操作用户终端装置100的用户输入,但是如果放置有用户终端装置100的运动对象中的亮度高于预设等级,则控制器120可将用户终端装置100的输入模式从第一输入模式切换为第二输入模式并仅获取语音输入作为用于操作用户终端装置100的用户输入。
换句话说,如果驾驶运动对象的驾驶员为了一操作而触摸用户终端装置100并且驾驶员应查看显示的屏幕,则这将导致对驾驶的注意力降低并增加事故风险。然而,如果驾驶运动对象的驾驶员输入语音命令来操作用户终端装置100,则驾驶员可在仍然看向运动对象的前方的同时输入语音,保持了驾驶员对驾驶的注意力。因此,如果运动对象的速度超出预设速度,则控制器120将输入模式切换为仅识别语音的第二输入模式,从而能够降低了驾驶员的事故危险。
此外,第一输入模式和第二输入模式不限于上面详细描述的示例。优选地,第一输入模式可简单地是包括能够操作用户终端装置100的所有输入方法的任何模式,第二输入模式可以是允许驾驶运动对象的驾驶员在不降低驾驶员的驾驶注意力的同时操作用户终端装置100的模式。
因此,由于触摸输入降低了对驾驶的注意力,故优选地将触摸输入排除在第二输入模式之外。
由于瞳孔应面向显示的屏幕以基于瞳孔的运动来进行输入并且因此不能查看道路,这导致降低驾驶时的注意力,从而增加事故风险,故优选地将瞳孔输入排除在第二输入模式之外。
然而,第一和第二输入模式不限于此,并可基于用户配置而改变。
此外,在描述控制器120的操作中,预设状况被限于特定限制(例如,80km/h的速度),但是预设状况不限于该值,而是可使用相对于该特定限制具有预设误差范围(例如,78km/h~82km/h)的值。
另外,控制器120可控制通信单元140检测可感测关于运动对象的运动状态的信息的外部装备。控制器120可控制通信单元140从检测的外部装备请求关于运动对象的运动状态的信息。例如,如果用户终端装置100不包括在传感器单元130中包括的配置中的一个或多个,则用户终端装置100会不能检测关于运动对象的运动状态的信息中的一个或多个。在这种情况下,控制器120可控制通信单元140接收未检测的关于运动状态的信息中的一个或多个,从而获得关于运动对象的运动状态的信息。
另外,控制器120可控制仅操作与各个输入模式相应的识别器。例如,第一输入模式是将触摸输入、语音输入和运动输入识别为用户输入的模式,第二输入模式是仅将语音输入识别为用户输入的模式。
在这种情况下,当用户终端装置100被配置为第一输入模式时,控制器120可控制识别单元110不操作瞳孔输入识别器114、脑波输入识别器115和另一装置输入识别器116(或拒绝来自瞳孔输入识别器114、脑波输入识别器115和另一装置输入识别器116的输入),而仅操作触摸输入识别器111、语音输入识别器112和运动输入识别器113。另外,当用户终端装置100被配置为第二输入模式时,控制器120可控制识别单元110仅操作语音输入识别器112。因此,识别单元110可仅操作与能够控制用户输入的各个输入模式相应的配置以操作用户终端装置100。
另外,控制器120控制识别单元110仅操作与输入模式相应的配置,从而能够通过不操作不必要的部件来降低功耗。
控制器120可控制传感器单元130不操作传感器单元130的感测关于运动对象的运动状态的信息中的不必要的信息的配置。例如,检测运动对象的运动是不必要的,控制器120可控制感测单元130不操作运动传感器132。关于运动状态的不必要的信息可以是关于由用户配置或通过通信单元140接收的运动状态的信息或者执行根据运动对象的类型检测运动状态的操作所不需要的信息等。因此,控制器120控制传感器单元130仅操作与关于需要检测的运动状态的信息相应的配置,从而能够降低功耗。
当在意于接收输入模式的UI窗口上选择了输入模式时,控制器120还可基于确定的输入模式改变用户终端装置100的输入模式。即,用户会期望根据关于运动对象的运动状态的信息自动地配置输入模式,但根据情况手动操作。因此,控制器120可将用户终端装置100的输入模式配置为用户手动设置的输入模式。
当在意于接收输入方法的UI窗口上选择了与输入模式相应的用户输入方法时,控制器120还可基于确定的输入方法改变用户终端装置100的输入模式。
此外,当在配置的输入方法中在意于确定优先等级的UI窗口上确定了优先等级时,控制器120可控制用户终端装置100基于确定的优先等级进行操作。
控制器120还可通过分析设置的输入模式来产生用户的手动设置数据。由用户手动配置的设置数据包括与由用户改变输入模式的样式相应的数据,所述改变对应于当用户终端装置的输入模式从第一输入模式切换为第二输入模式时的改变。例如,虽然控制器120基于关于运动对象的运动状态的信息将输入模式从包括触摸输入和语音输入的第一输入模式切换为仅包括触摸输入的第二输入模式,但是如果用户不期望用户终端装置100在第二输入模式下进行操作,则用户可通过使用运动输入来手动地切换为其它输入模式。通过用户响应于控制器120切换输入模式而手动切换输入模式可称为用户的超驰(override)命令。超驰命令可由控制器120检测。在这种情况下,控制器120可分析用户配置输入模式以产生用户的手动设置数据的样式。控制器120还可控制收集所述用户的手动设置数据以保存在存储单元160中,或者在更新手动设置数据之后保存在存储单元160中。
用户的手动设置数据可以是由用户响应于当用户终端装置从第一输入模式切换为第二输入模式时用户终端装置的输入模式的改变而做出的手动输入模式改变的样式。例如,当控制器120基于关于运动对象的运动状态的信息将输入模式从包括触摸输入和语音输入的第一输入模式切换为仅包括触摸输入的第二输入模式时,但是如果用户不期望用户终端装置100在第二输入模式下进行操作,则用户可通过提供运动输入来手动地切换为其它输入模式。在这种情况下,控制器120可分析用户配置输入模式以产生用户的手动设置数据。控制器120还可控制累积所述用户的手动设置数据以保存在存储单元160中,或者更新手动设置数据并将更新的手动设置数据保存在存储单元160中。
控制器120还可使用累积的用户的手动设置数据来控制第一输入模式到第二输入模式的切换。也就是说,当用户将包括触摸输入和语音输入的第一输入模式切换为仅包括触摸输入的第二输入模式时,如果在仅包括用户运动输入的其它输入模式的情况下大部分的累积的用户的手动设置数据已经被先前手动设置,则控制器120可控制切换为仅包括用户运动输入的其它输入模式。
当使用更新的用户的手动设置数据将第一输入模式切换为第二输入模式时,控制器120还可控制切换为最近使用的其它输入模式。
因此,控制器120在切换输入模式时考虑用户的手动设置数据,从而基于用户行为优化了输入模式的切换。
控制器120可包括CPU、存储控制程序的ROM、存储输入数据或用作工作相关存储区域的RAM。CPU、ROM、RAM可经由内部总线连接。
图3到图5示出根据示例性实施例的用户终端装置中的输入模式的切换操作。
图3是用户终端装置正在运行导航应用、第一输入模式是识别用户触摸输入和用户语音输入的模式并且第二输入模式是仅识别用户语音输入的模式的示例的示图。
如图3的(a)中所示,当在关于运动状态的信息满足预设状况的情况下控制器120将终端设置为第一输入模式时,识别单元110在第一输入模式下识别用户触摸输入。
然而,如果关于运动状态的信息不满足预设状况,则控制器120将第一输入模式切换为第二输入模式。在这种情况下,如图3的(b)中所示,可提供诸如“不能识别触摸输入”的警告以通知用户。此外,可使用多种可能的方法(诸如,声音、显示、振动等)来通知用户不接受触摸输入。
因此,用户可通过语音控制用户终端装置的操作,如图3的(c)中所示。也就是说,用户可通过语音命令输入街道名(orchard路)以搜索路线,如图3的(c)中所示。
在这种情况下,如图3的(d)中所示,用户终端装置可搜索路线并将路线显示给使用输入语音命令的用户。
图4是示出用户终端装置是移动终端装置、第一输入模式是基于用户瞳孔的运动识别输入的模式并且第二输入模式是识别用户运动输入的模式的示图。
如图4的(a)中所示,当在关于运动状态的信息满足预设状况的情况下控制器120配置第一输入模式时,识别单元110基于用户瞳孔的运动识别输入。
然而,如果关于运动状态的信息不满足预设状况,则控制器120将第一输入模式切换为第二输入模式。在这种情况下,如图4的(b)中所示,可提供诸如“不能基于瞳孔的运动识别输入”的警告以通知用户。此外,可使用上述的方法来通知用户不识别或不接受输入。
因此,用户可通过运动控制用户终端装置的操作,如图4的(c)中所示。也就是说,用户可输入手势“X”以取消路线,如图4的(c)中所示。“X”手势不限于此,而是根据配置与其它功能相映射。各种运动可与多种其它功能相映射。
在这种情况下,如图4的(d)中所示,用户终端装置可通过输入的手势取消进行中的路线向导。
图5是示出用户终端装置是移动终端装置、第一输入模式是识别用户触摸输入和用户语音输入的模式并且第二输入模式是仅识别用户语音输入的模式的示图。
如图5的(a)中所示,当在关于运动状态的信息满足预设状况的情况下控制器120配置第一输入模式时,识别单元110识别用户触摸输入。
然而,如果关于运动状态的信息不满足预设状况,则控制器120将第一输入模式切换为第二输入模式。在这种情况下,如图5的(b)中所示,可提供诸如“不能识别触摸输入”的警告以通知用户。此外,可使用上述的方法来通知用户不识别或不接受输入。
因此,用户可通过语音命令控制用户终端装置的操作,如图5的(c)中所示。也就是说,用户可通过语音命令输入“听音乐”(与音乐应用相应的语音命令)以听音乐,如图5的(c)中所示。
在这种情况下,如图5的(d)中所示,用户终端装置可运行音乐应用以显示音乐播放窗口。
图6示出根据示例性实施例的输入模式设置UI。如图6(a)中所示,显示单元150可显示输入模式配置UI窗口。当用户选择输入模式1、输入模式2、输入模式3和输入模式4中的一个并按压应用按钮时,控制器120可根据选择的输入模式来改变用户终端装置100的输入模式。
如果用户选择作为输入模式中的一个的输入模式1并按压改变按钮,则显示单元150可显示包括在输入模式1中的用户输入方法可被配置的UI窗口,如图6(b)中所示。这里,以下,将假设用户选择“触摸输入”、“语音输入”、“运动输入”作为用户输入方法来描述用户输入方法。
如果用户配置用户输入方法,则显示单元150可显示用于询问是否对用户输入方法进行优先级排序的UI窗口,如图6(c)中所示。
如果用户选择“是”,则显示单元150可显示用于对用户输入方法进行优先级排序的UI窗口,如图6(d)中所示。如果用户选择“触摸输入”用于第一优先级,“语音输入”用于第二优先级,“运动输入”用于第三优先级,则当触摸和语音被同时输入时,控制器120可将触摸输入识别为用户输入。
然而,输入模式配置不限于此,但可根据配置在没有优先级配置的情况下结束。如果未在用户输入之间确定优先等级,则控制器120可根据配置识别并响应于同时接收的所有用户输入。另外,可根据配置不识别同时接收的任何用户输入。
图7是描述根据示例性实施例的用户终端装置的控制方法的流程图。参照图7,控制方法检测关于运动对象的运动状态的信息或从外部装备接收关于运动对象的运动状态的信息(操作601)。
控制方法确定关于运动对象的运动状态的信息是否满足预设状况。如果满足预设状况(操作602中的是),则在操作603中将用户终端装置的输入模式设置为第一输入模式。
如果不满足预设状况(操作602中的否),则在操作604中将用户终端装置的输入模式设置为第二输入模式。这里,第一输入模式是用户终端装置接受用户的多个输入模式的模式,第二输入模式是用户终端装置仅接受多个输入模式中的终端装置上可用的输入模式的子集的模式。例如,第一输入模式是用户终端装置将用户的触摸输入和用户的语音输入识别为输入的模式;第二输入模式是用户终端装置仅将用户的语音输入识别为输入的模式。关于运动状态的信息可包括运动对象的速度、运动对象的运动、运动对象中的噪声和运动对象中的亮度中的至少一个。
根据上述示例性实施例的用户终端装置可基于关于放置有用户终端装置的运动对象的运动状态的信息来执行用户终端装置的输入模式的切换,并可提高用户便利性、可访问性和安全性。
图8是示出根据示例性实施例的用户终端装置的框图。参照图8,根据本发明第二实施例的用户终端装置200可包括存储单元260和控制器220中的一个或多个。用户终端装置200可以是可显示运动对象的运动状态的导航装置、移动终端装置、PDA或PC。
存储单元260用于存储操作用户终端装置200所需的各种程序和数据。具体地,存储单元260可把将被应用于用户终端装置200的选项信息映射到预设状况,并将它们存储。多条信息可以是可用的。可基于预设状况不同和单独地映射这些多条信息。例如,可在第一状况下映射第一选项信息,可在第二状况下映射第二选项信息。预设选项信息可包括UI显示方法、音量和屏幕亮度中的至少一个。
控制器220控制用户终端装置200的全部操作。具体地,控制器220可基于关于放置有用户终端装置200的运动对象的运动状态的信息来将在用户终端装置200中设置的选项信息从第一选项信息切换为第二选项信息。下面将参照图9更详细地描述控制器220的操作。
图9是更详细地示出图8中的用户终端装置的框图。参照图9,用户终端装置200包括识别单元210、控制器220、传感器单元230、通信单元240、显示单元250和存储单元260中的一个或更多个。
识别单元210识别用户输入。识别单元210可包括以下识别器中的至少一个:识别用户触摸输入的触摸输入识别器211、识别用户语音输入的语音输入识别器212、识别用户运动输入的运动输入识别器213、识别基于用户的瞳孔的运动的输入的瞳孔输入识别器214、识别基于用户的脑波的输入的脑波输入识别器215和识别来自另一用户终端装置的输入的另一装置输入识别器216。
传感器单元230检测关于运动对象的运动状态的信息。运动对象可以是运动的任何对象。例如,运动对象可以是非人类对象(诸如汽车、公交车、轮船、火车或摩托车)或人类对象(诸如,人)。另外,关于运动状态的信息可包括对象的运动速度、运动对象的振动、运动对象中的噪声和运动对象中的亮度中的至少一个。
传感器单元230可包括检测运动对象的速度的速度传感器231、振动传感器232、噪声传感器233和亮度传感器234中的至少一个。
通信单元240将用户终端装置200与外部装备连接。因此,用户终端装置200可接收操作用户终端装置200所需的各种信息、用于更新用户终端装置200的更新信息等。另外,用户终端装置可经由通信单元240从外部装备接收关于运动状态的信息。外部装备可以是速度传感器、振动传感器、噪声传感器和亮度传感器中的至少一个。这样,当用户终端装置200不具有传感器单元230中的一个或更多个时,用户终端装置200可通过使用接收的关于运动对象的运动状态的信息而得到关于运动状态的信息。
显示单元250显示UI窗口,从而用户可设置或选择用户终端装置200支持的任何期望的功能。具体地,显示单元250可显示用户终端装置200的选项信息被设置为第一选项信息或第二选项信息的UI窗口。
存储单元260用于存储操作用户控制装置200所需的各种程序和数据。具体地,存储单元260可将用户终端装置200的选项切换所需的预设状况映射到多条选项信息,并将它们存储。
控制器220可控制识别单元210、传感器单元230、通信单元240、显示器250和存储单元260中的一个或更多个。控制器220可基于关于放置有用户终端装置200的运动对象的运动状态的信息或者终端装置本身的运动的信息来将在用户终端装置中设置的选项信息从第一选项信息切换为第二选项信息。具体地,如果关于运动状态的信息满足预设状况,则控制器220将在用户终端装置200中设置的选项信息设置为第一选项信息,如果关于运动状态的信息不满足预设状况,则控制器220将在用户终端装置200中设置的选项信息从第一选项信息切换为第二选项信息。
预设状况包括考虑运动对象的事故风险而预先设置的运动对象的速度、运动对象的振动、运动对象中的噪声和运动对象中的亮度中的至少一个。预设状况还可包括考虑运动对象的事故风险而预先设置的终端装置的速度、终端装置的振动、终端装置附近的噪声和终端装置附近的亮度中的至少一个。
可由用户终端装置200的用户设置预设状况。还可由用户终端装置的制造商在生产设置处理期间设置预设状况。预设状况可被存储在存储单元260中。
例如,第一选项信息和第二选项信息表示UI显示方法,预设状况表示运动对象的速度。
假设预设状况指示运动对象的速度不大于80km/h。如果放置有用户终端装置100的运动对象以80km/h或以下的速度运动,则控制器120可控制显示单元250显示列表类型UI;如果放置有用户终端装置100的运动对象以大于80km/h的速度运动,则控制器120可控制显示单元250显示倾斜类型UI。这里,列表类型UI可以是在一行中列出的菜单,倾斜类型UI可以是在多行而不是一行中列出的菜单。将参照图10至图14提供关于这些的更多细节。
换句话说,当在高速状况下驾驶运动对象的驾驶员使用列表类型UI以操作用户终端装置200时,会难以在驾驶的同时选择菜单,这是由于提供的菜单尺寸小。在这种情况下,驾驶员会不能专心驾驶,这可提高事故风险的可能性。然而,如果驾驶运动对象的驾驶员使用倾斜类型UI以操作用户终端装置200,则他或她可容易地选择期望的菜单,这是由于提供的菜单尺寸大。这样,事故风险的可能性由于驾驶员的UI操作而可被降低。例如,如果运动对象的速度超过预设速度,则控制器220可控制显示单元250显示倾斜类型UI,从而可降低驾驶运动对象的驾驶员的事故风险的可能性。
控制器220还可针对除了运动对象的速度之外的其它预设状况(包括诸如运动对象、运动对象中的噪声、运动对象中的亮度中的一个或更多个)将UI显示方法切换为如上详细描述的倾斜类型UI。以这种方式,可降低驾驶运动对象的驾驶员的事故风险的可能性。
根据示例性实施例,第一选项信息和第二选项信息可表示音量,预设状况表示运动对象中的噪声。
如果运动对象中的噪声不大于预设等级,则控制器220可控制用户终端装置200在预设音量进行操作;如果运动对象中的噪声大于预设等级,则控制器220可控制用户终端装置200增加音量。然而,这仅是示意性示例,控制器220可控制用户终端装置200使得音量可根据运动对象中的噪声而被自适应地修改。
根据示例性实施例,第一选项信息和第二选项信息可表示亮度,预设状况可表示运动对象中的亮度。
如果运动对象中的亮度不大于预设等级,则控制器220可控制显示单元250以预设亮度显示屏幕;如果运动对象中的亮度大于预设等级,则控制器220可控制显示单元250增加亮度。然而,这仅是示意性示例,控制器220可控制显示单元250使得亮度可根据运动对象中的亮度而被自适应地修改。
当示出控制器220的操作时,虽然预设状况已被定义为特定阈值(例如,80km/h的速度),但是应理解预设状况不限于此,而是可包括针对给定阈值的预定的误差容限(例如,78km/h~82km/h)。
控制器220可控制通信单元240搜索可检测关于运动对象的运动状态的信息的外部装备。此外,控制器220可控制通信单元240请求外部装备提供关于运动对象的运动状态的信息并从外部装备接收该信息。
控制器220可按照检测关于运动对象的空闲状态的信息(其中,传感器单元的所述检测不是必需的)的传感器单元230的特定配置的方式控制传感器单元230。
当在选项信息将被设置的UI窗口中设置了选项信息时,控制器220可根据设置的选项信息来设置用户终端装置的现有的选项信息。换句话说,一些用户可能会期望用户终端装置200的选项信息根据关于运动对象的运动状态的信息而被自动地设置,但是一些用户可能会期望手动设置选项信息。这样,控制器220可将用户终端装置200的现有的选项信息设置为由用户手动设置的选项信息。
控制器220可通过分析设置的选项信息来产生用户的手动设置数据。这里,当用户终端装置中的选项信息已从第一选项信息切换为第二选项信息时,用户的手动设置数据与用户的选项信息改变样式相应。例如,在控制器220基于关于运动对象的运动状态的信息将列表类型UI切换为倾斜类型UI之后,当用户不期望使用倾斜类型UI操作用户终端装置200时,用户可手动地将UI切换为列表类型UI。在这种情况下,控制器220可通过分析由用户设置的选项信息来产生用户的手动设置数据。此外,控制器220可以以这样的方式进行控制:在所述方式中,用户的手动设置数据在数据将被存储的存储单元260中被累积或更新。
在图10和图11中,为了示意性目的,假设用户终端装置与导航装置相应,并且选项信息与UI显示方法相应。
如图10(a)中所示,如果关于运动状态的信息满足预设状况,则控制器220将关于运动状态的信息设置为第一选项信息。这样,显示单元250显示列表类型UI。
然而,如果关于运动状态的信息不满足预设状况,则控制器220将第一选项信息切换为第二选项信息。在这种情况下,显示单元250可显示倾斜类型UI,如图10(b)中所示。在这种情况下,控制器220可控制显示单元250按照缩小的比例显示地图图像。根据这种情况,如图11(b)中所示,在减少在列表类型UI上显示的菜单的数量之后,控制器220可控制显示单元250显示倾斜类型UI。那些在倾斜类型UI上显示的菜单可包括用户喜爱的菜单。
在图12中,为了示意性目的,假设用户终端装置与导航装置相应,并且选项信息与音量相应。
如图12(a)中所示,当关于运动状态的信息满足预设状况时,控制器220可将所述信息设置为第一选项信息并提供第一音量。
然而,当关于运动状态的信息不满足预设状况时,控制器220将第一选项信息切换为第二选项信息。在这种情况下,如图12(b)中所示,控制器220可自动地将音量切换为第二音量,并提供第二音量的语音。在这种情况下,可在显示单元250上指示切换的第二音量。
在图13中,为了示意性目的,假设用户终端装置与导航装置相应,并且选项信息与亮度相应。
如图13(a)中所示,当关于运动状态的信息满足预设状况时,控制器220可将所述信息设置为第一选项信息并提供第一亮度的图像。
然而,如果关于运动状态的信息不满足预设状况,则控制器220将第一选项信息切换为第二选项信息。在这种情况下,如图13(b)中所示,控制器220可自动地将亮度切换为第二亮度,并提供第二亮度等级的图像。在这种情况下,可在显示单元250上指示与切换的亮度等级相应的亮度等级(例如,关于显示的图像的信息,诸如“100%亮度”)。
在图14和图15中示出的示例中,用户终端装置与导航装置相应,并且选项信息与UI显示方法相应。
如图14(a)中所示,当关于当前正在跑步的用户的运动状态的信息满足预设状况时,控制器220可将所述信息设置为第一选项信息,并且显示单元250显示列表类型UI,如图14(b)中所示。
然而,当关于用户的运动状态的信息不满足预设状况时,控制器220将第一选项信息切换为第二选项信息。在这种情况下,显示单元250可显示倾斜类型UI,如图14(c)中所示。
根据所述情况,当应用图标如图15(b)中所示被显示并且关于用户的运动状态的信息不满足预设状况时,控制器220将第一选项信息切换为第二选项信息。在这种情况下,显示单元250可以以放大的尺寸显示在其它应用图标中的用户最喜爱的应用图标,如图15(c)中所示。例如,显示单元250可显示“电话应用图标”、“消息应用图标”、“音乐应用图标”、“图像应用图标”等。因此,用户可在锻炼的同时从最常使用的应用图标中容易地选择期望的应用图标。
图16是描述根据示例性实施例的用户终端装置的控制方法的流程图。参照图16,根据控制方法,在操作1301中,检测关于运动对象的运动状态的信息或从外部装备接收关于运动对象的运动状态的信息。
在操作1302,确定关于运动对象的运动状态的信息是否满足预设状况。如果预设状况满足(操作1302中的是),则在操作1303中,将用户终端装置中的选项信息设置为第一选项信息。如果预设状况不满足(操作1302中的否),则在操作1304中,将用户终端装置中的选项信息设置为第二选项信息。
这里,第一选项信息可以是列表类型UI,第二选项信息可以是倾斜类型UI。另外,第一选项信息可以是低音量,第二选项信息可以是高音量。此外,第一选项信息可以是低亮度屏幕,第二选项信息可以是高亮度屏幕。
根据上述的用户终端装置,用户终端装置可基于关于运动对象的运动状态的信息来切换在用户终端装置中设置的选项信息,从而可提高用户便利性。
图17是示出根据示例性实施例的用户终端装置的框图。参照图17,用户终端装置300包括存储单元360和控制器320中的一个或多个。用户终端装置300可以是导航装置、移动终端装置、PDA、PC等。
存储单元360用于存储操作用户终端装置300所需的各种程序和数据。具体地,存储单元360可将用户界面模式映射到操作用户终端装置300的用户的用户配置信息,并将它们存储。多个用户界面模式可以是可用的。另外,可基于操作用户终端装置的用户的用户配置信息不同和单独地映射这些用户界面模式。例如,第一用户界面模式可被映射到第一用户,第二用户界面模式可被映射到第二用户。
用户配置信息表示用于识别用户的信息,包括用户账户信息(诸如,ID/密码)、与用户终端装置300协同操作的外部装备的识别信息(例如,MAC地址信息)等。
控制器320控制用户终端装置300的全部操作。具体地,控制器320可基于操作用户终端装置300的用户的用户配置信息将在用户终端装置300中设置的用户界面模式从第一用户界面模式切换为第二用户界面模式。下面将参照图18更详细地描述控制器320的操作。
图18是详细地示出图17的用户终端装置的框图。参照图18,用户终端装置300包括识别单元310、控制器320、传感器单元330、通信单元340、显示单元350和存储单元360中的一个或多个。
通信单元340将用户终端装置300与外部装备连接。具体地,用户终端装置可经由通信单元340从外部装备接收用户配置信息。通信单元340可使用Wi-Fi、蓝牙、RFID、NFC等从外部装备接收用户配置信息。这里,外部装备可以是移动终端装置、PDA、PC等。
在RFID或NFC的情况下,通信单元可通过用户终端装置与外部装备之间的标签操作(tagging)接收用户配置信息。更具体地,在RFID或NFC的情况下,用户终端装置具有RFID或NFC读取器、外部装备具有RFID或NFC标签。这样,当外部装备向用户终端装置300移动并且执行标签操作时,在用户终端装置300中可用的RFID或NFC读取器读取在外部装备中可用的RFID或NFC标签上的信息。
这里的术语“标签操作”与以下动作相应:用户终端装置和外部装备中的至少一个移动到能够进行短距离无线通信的覆盖区域。随着其越接近这样的区域,用户终端装置300中的RFID或NFC读取器可读取外部装备中的记录在RFID或NFC标签上的信息。对于短距离无线通信,可使用例如NFC(近场通信)。NFC是非接触类型短距离无线通信方法。使用NFC技术,可以使在诸如大约10cm的短距离之内将数据发送到多个终端并从多个终端接收数据成为可能。当完成标签操作时,用户终端装置300中的RFID或NFC读取器从外部装备中的RFID或NFC标签读取用户配置信息。
显示单元350显示UI窗口,从而用户可设置或选择用户终端装置300支持的任何期望的功能。具体地,显示单元350可显示用于接收用户配置信息的输入的UI窗口。UI窗口可以是用于接受用户账户信息的输入已被输入的一个窗口。这样,用户可通过输入用户账户信息来输入用户配置信息。
用户配置信息可通过与外部装备通信而被接收,或可由用户输入。
存储单元360用于存储操作用户终端装置300所需的各种程序和数据。具体地,存储单元360可将用户界面模式映射到操作用户终端装置300的用户的用户配置信息。
控制器320可控制识别单元310、传感器单元330、通信单元340、显示单元350和存储单元360中的一个或更多个。
具体地,控制器320可基于操作用户终端装置300的用户的用户配置信息将在用户终端装置中设置的用户界面模式从第一用户界面模式切换为第二用户界面模式。
控制器320可基于通过用于接收用户配置信息的输入的UI窗口输入的用户配置信息以及通过通信单元340接收的用户配置信息中的至少一个将在用户终端装置300中设置的用户界面模式从第一用户界面模式切换为第二用户界面模式。
用户界面模式可包括用户终端装置的输入模式、用户终端装置的UI模式和用户终端装置的选项模式中的至少一个。
由于使用用户终端装置300的人可具有不同偏好,故他们偏好的用户界面模式可以不同。例如,如果用户界面模式是输入模式,则趋向于安全驾驶并且不容易分心的人会偏好使用用户终端装置300可用和可控制的所有那些输入(例如,触摸输入、语音输入、运动输入、用户的瞳孔输入、脑波输入、来自其它用户终端装置的输入)作为输入模式。另一方面,已经发生事故、容易分心或趋向于以不安全的方式驾驶的人会偏好仅使用用户终端装置300可控制的不会分心的一些输入模式(诸如,语音输入、运动输入、脑波输入和来自其它用户终端装置的输入)作为输入模式。
当用户界面配置背景时,年长的人会偏好具有更大文字、更大图像和更简单的UI配置的UI。另一方面,年轻的人会偏好具有多彩图形的UI或者具有明星背景图像的UI。
当用户界面模式是选项模式时,年长的人会偏好具有明亮屏幕和高音量的选项模式。喜欢大声听音乐的人会偏好具有高音量的选项模式。
因此,控制器320可基于用户配置信息将在用户终端装置中设置的用户界面模式从第一用户界面模式切换为第二用户界面模式。
控制器320可将用户终端装置300的用户界面模式设置为通过UI窗口设置的另一用户界面模式,其中,用户界面模式应在所述UI窗口中被设置。换句话说,用户可能期望用户界面模式基于用户配置信息自动地被设置,但是用户也可能期望根据情况手动设置用户界面模式。因此,控制器320可将用户终端装置300的用户界面模式设置为由用户手动设置的用户界面模式。
控制器320可通过分析由用户设置的用户界面模式产生用户的手动设置数据以与用户配置信息相应。用户的手动设置数据可包括与用户界面模式改变样式相应的信息,其中,用户界面模式改变样式响应于用户终端装置的用户界面模式从第一输入模式到第二输入模式的切换。例如,如果在控制器320已基于操作用户终端装置300的用户的用户配置信息将用户界面模式从第一用户界面模式切换到第二用户界面模式之后,用户不期望用户终端装置在第二用户界面模式下操作,则用户可手动将用户界面模式切换为另一用户界面模式。在这种情况下,控制器320可通过分析由用户设置的用户界面模式来产生用户的手动设置数据。控制器320还可将所述用户的手动设置数据累积到存储单元360中,或在存储在存储单元360中之前更新所述数据。
控制器320可使用累积的用户的手动设置数据控制将用户界面模式从第一用户界面模式切换为第二用户界面模式。例如,当用户界面模式已从第一用户界面模式切换为第二用户界面模式时,如果用户已在另一用户界面模式下手动设置的数据与大部分累积的用户的手动设置数据相应,则控制器320可将现有的用户界面模式切换为与累积的用户的手动设置数据相应的另一用户界面。
当用户界面模式已从第一用户界面模式切换为第二用户界面模式时,控制器320使用更新的用户的手动设置数据以将现有的用户界面模式切换为最近更新的用户界面模式。
以这种方式,控制器320在切换用户界面模式时反映用户的手动设置数据,从而可基于用户的动作来优化用户界面模式切换操作。
控制器320可产生与用户配置信息相应的用户的偏好的动作数据,并通过使用用户的偏好的动作样式数据来产生与用户配置信息相应的用户界面模式。用户的偏好的动作数据表示当使用用户终端装置300时用户频繁使用的任何功能。例如,其指示用户的偏好的动作样式,使用触摸模式用于输入模式,使用倾斜模式UI用于UI模式,将音量设置为50%,等等。换句话说,控制器320可从上述用户的偏好的动作样式产生偏好的动作数据,并通过使用偏好的动作数据产生与用户配置信息相应的用户界面模式。此外,控制器320可控制存储单元360存储所述用户的偏好的动作数据。
控制器320可针对用户终端装置300将用户界面模式设置为通过使用用户的偏好的动作数据设置的另一用户界面模式。以这种方式,用户可通过用户配置信息的输入或者来自外部装备的用户配置信息的输入在他或她喜爱的用户界面模式下使用用户终端装置300。
图19示出基于用户配置信息的用户界面模式中的输入模式的切换。
如图19(a)和19(d)中所示,显示单元350可显示用于获取用户账户信息的输入的UI窗口。这允许用户输入用户配置信息。
在这种情况下,控制器320可基于用户配置信息针对用户终端装置300设置用户界面模式。
例如,控制器320可设置用户界面模式,使得每个用户输入被操作为输入模式,如图19(b)中所示;或者控制器320可设置用户界面模式,使得仅语音输入被操作为输入模式,如图19(e)中所示。
在这种情况下,已经输入如图19(a)中所示的账户信息的用户可通过所有那些用户输入中的触摸输入来控制用户终端装置300,如图19(c)中所示。已经输入如图19(d)中所示的账户信息的用户可仅通过语音输入控制用户终端装置300。
例如,趋向于安全驾驶的人会偏好使用用户终端装置300可用和可控制的所有那些输入(例如,触摸输入、语音输入、运动输入、用户的瞳孔输入、脑波输入、来自其它用户终端装置的输入)作为输入模式。另一方面,已经发生事故、趋向于以不安全的方式驾驶或者容易分心的人会偏好仅使用用户终端装置300可控制的特定输入模式(诸如,语音输入、运动输入、脑波输入和来自其它用户终端装置的输入)作为输入模式。这样,如图19中所示,控制器320可基于用户配置信息来设置用户界面模式。
应注意图19是仅用于示出的目的,而不限制示例性实施例。例如,用于获取用户账户信息的输入的UI窗口可基于密码输入方法而改变。
图20示出其它用户界面模式中的UI模式基于用户配置信息被改变的情况。
可通过标签操作将用户配置信息输入到用户终端装置300,如图20(a)和20(d)中所示。
在这种情况下,控制器320可基于用户配置信息针对用户终端装置300设置用户界面模式。
例如,如图20(b)中所示,可显示倾斜类型UI,并且可应用较小字体尺寸的文字。另外,如图20(d)中所示,可显示列表类型UI,并且可应用较大字体尺寸的文字。
换句话说,年长的人会偏好具有更大文字、更大图像和更简单的UI配置的UI,如图20(b)中所示。另一方面,年轻的人会偏好在一个屏幕上具有大量内容的UI。这样,控制器可基于用户配置信息针对用户终端装置300设置用户界面模式。
图21示出其它用户界面模式中的选项模式基于用户配置信息被改变的情况。
可通过标签操作将用户配置信息输入到用户终端装置300,如图21(a)和21(d)中所示。
在这种情况下,控制器320可基于用户配置信息针对用户终端装置300设置用户界面模式。
例如,如图21(b)中所示,可在选项模式下将亮度设置为100%,并将音量设置为80%。另外,如图21(d)中所示,可将音量设置为100%。换句话说,年长的人会偏好具有明亮屏幕和更高音量的选项模式。此外,喜欢听音乐的人会偏好具有高音量的选项模式。因此,控制器320可基于用户配置信息针对用户终端装置300设置用户界面模式。
应注意图19到图21是仅用于示出的目的,而不限制示例性实施例。例如,用于获取用户账户信息的输入的UI窗口可基于密码输入方法而改变。另外,用户界面模式可被覆盖。例如,基于用户配置信息,可设置输入模式、UI模式和选项模式中的一个或更多个。
图22是描述根据示例性实施例的用户终端装置的控制方法的流程图。参照图22,首先,在操作1901,通过显示单元或从外部装备输入操作用户终端装置的用户的用户配置信息。
在操作1902,基于用户配置信息将在用户终端装置中设置的用户模式从第一用户界面模式切换为第二用户界面模式。
用户界面模式可包括用户终端装置的输入模式、用户终端装置的UI模式和用户终端装置的选项模式中的至少一个。
根据上述的用户终端装置,可通过基于操作用户终端装置的用户的用户配置信息切换在用户终端装置中设置的用户界面模式来提高用户便利性。
图23是示出根据示例性实施例的用户终端装置的框图。参照图23,用户终端装置400可包括存储单元460和控制器420中的一个或更多个。用户终端装置400可以是导航装置、移动终端装置、PDA或PC。
存储单元460用于存储操作用户终端装置400所需的各种程序和数据。具体地,存储单元460可将图形用户界面(GUI)信息(例如,图标、按钮、图像、图形信息等)映射到运动对象的状态信息和运动对象的环境信息。GUI信息可被称为GUI元素。可映射多条GUI信息。可基于运动对象的状态和运动对象的环境信息不同和单独地映射这些多条GUI信息。
运动对象的状态信息可以是例如运动对象的燃油液位、运动对象的当前位置、运动对象的目的地、运动对象的行进距离等。运动对象的环境信息可以是例如当前天气状况、当前时间等。
控制器420控制用户终端装置400的全部操作。具体地,控制器420可基于运动对象的状态信息和运动对象的环境信息中的至少一个将在用户终端装置400中设置的GUI信息从第一GUI信息切换为第二GUI信息。下面将参照图24更详细地描述控制器420的操作。
图24是详细地示出图23的用户终端装置的框图。参照图24,用户终端装置400可包括是识别单元410、控制器420、传感器单元430、通信单元440、显示单元450和存储单元460中的一个或更多个。
控制器420可控制识别单元410、传感器单元430、通信单元440、显示器450和存储单元460中的一个或更多个。
具体地,控制器220可基于运动对象的状态信息和运动对象的环境信息中的至少一个将在用户终端装置400中设置的GUI信息从第一GUI信息切换为第二GUI信息。
例如,如果用户的运动对象的燃油液位低,则用户会期望寻找加油站。另外,用户会期望寻找靠近运动对象的当前位置的最好的餐厅中的一个,或者用户会期望参观靠近运动对象的当前位置的旅游景点。根据运动对象的目的地,用户会期望寻找靠近目的地的最好的餐厅中的一个,或者用户会期望寻找靠近目的地的酒店或住处。根据行进距离,用户会期望寻找具有较少流量的路线,或者用户会期望寻找沿途驾驶具有更优美景观的路线。在坏天气状况下,用户会期望采用提供有更多路灯的路线,或者用户会期望增加用户终端400的屏幕的亮度、增加音量或使用不同的输入模式。在好天气的情况下,用户会期望寻找靠近运动对象的当前位置的野餐地点。如果在夜间,则用户会期望使屏幕更亮,并寻找具有优美夜景的地点。
因此,控制器420可基于运动对象的状态信息和环境信息将在用户终端装置400中设置的用户界面模式从第一用户界面模式切换为第二用户界面模式。
另外,控制器420可将用户终端装置400的GUI信息设置为通过UI窗口设置的GUI信息。例如,用户会期望GUI信息基于运动对象的状态信息和环境信息被自动地设置。用户还会期望根据终端装置的情况或环境手动设置GUI信息。因此,控制器420可基于终端装置的情况或环境将用户终端装置400的GUI信息设置为由用户手动设置的GUI信息。
控制器420可通过分析由用户设置的GUI信息产生用户的手动设置数据以与运动对象的状态信息和环境信息相应。用户的手动设置数据与用户的手动GUI信息改变样式相应,其中,用户的手动GUI信息改变样式响应于用户终端装置的GUI信息从第一GUI信息到第二GUI信息的切换。例如,在控制器420已基于运动对象的状态信息和环境信息将GUI信息从第一GUI信息切换到第二GUI信息之后,如果用户不期望用户终端装置400使用第二GUI信息进行操作,则用户可手动将GUI信息切换为另一GUI信息。在这种情况下,控制器420可通过分析由用户设置的GUI信息来产生用户的手动设置数据。控制器420还可将所述用户的手动设置数据累积到存储单元460中,或在存储在存储单元460中之前更新所述数据。
控制器420可使用累积的用户的手动设置数据控制从第一GUI信息到第二GUI信息的GUI信息的切换。例如,当GUI信息已从第一GUI信息切换为第二GUI信息时,如果用户将GUI信息手动设置为与大部分累积的用户的手动设置数据相应,则控制器420可将现有的GUI信息切换为与大部分累积的用户的手动设置数据相应的其它GUI信息。
当GUI信息已从第一GUI信息切换为第二GUI信息时,控制器420使用更新的用户的手动设置数据以将现有的GUI信息切换为最近更新的GUI信息。
控制器420可通过使用用户的手动设置数据来控制GUI信息从第一GUI信息到第二GUI信息的切换。
图25示出GUI信息基于运动对象的状态信息被改变的情况。如图25(a)中所示,当燃油液位低时,可通过显示的消息来通知用户。在这种情况下,如图25(b)中所示,控制器420可设置GUI信息,使得可显示沿路线的位于运动对象的行进距离内的任何加油站。以这种方式,用户可容易地对沿路线的行进距离内的加油站进行定位。
图26示出GUI信息基于运动对象的环境信息被改变的情况。如图26(a)中所示,用户终端装置400可指示运动对象的行进方向。然而,在坏天气状况的情况下,或者当用户的视野降低时,控制器420可设置指示运动对象的多个行进方向的GUI信息。以这种方式,由于提前可获得行进方向,因此对用户来说驾驶会更容易。
图27示出GUI信息基于运动对象的状态信息被改变的情况。如图27(a)中所示,用户终端装置可显示运动对象的行进路径。如果用户已经多次使用行进路径,则用户会对该路径熟悉。在这种情况下,如图27(b)中所示,控制器420可按照这样的方式设置GUI信息:指示包括最好的餐厅、旅游景点或具有优美夜景的地点的有用信息,而不是指示运动对象的行进路径本身上的详细情况。以这种方式,用户可获得关于频繁行进的区域的感兴趣的地点的有用信息。
根据上述的用户终端装置,可通过基于运动对象的运动状态信息和运动对象的环境信息切换在用户终端装置中设置的GUI信息来提高用户便利性。
根据上述示例性实施例的用户终端装置的控制方法可被实施为程序代码并按照保存的状态被保存在将被提供给任何服务器或装备的各种非暂时计算机可读介质中。
非暂时计算机可读介质表示半永久性地(而不是如在寄存器、缓存、存储器等中的短期时间)保存数据并且计算机可读的介质。更具体地,上述的那些不同应用或程序可保存在非暂时计算机可读介质(诸如CD、DVD、硬盘、蓝光盘、USB、存储卡、ROM等)中,并变得可用于使用。

Claims (15)

1.一种手持用户装置,包括:
第一用户界面;
第二用户界面;
感测装置,感测手持用户装置的操作状况;以及
控制器,如果操作状况与第一状况相应,则启用第一用户界面并禁用第二用户界面,如果操作状况与第二状况相应,则启用第二用户界面并禁用第一用户界面,
其中,操作状况是手持用户装置的外部操作环境和手持用户装置的运动中的至少一个。
2.如权利要求1所述的手持用户装置,还包括:第三用户界面,
其中,如果操作状况与第三状况相应,则控制器启用第一用户界面、第二用户界面和第三用户界面中的两个用户界面并禁用剩余的用户界面。
3.如权利要求2所述的手持用户装置,其中,第三用户界面包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
4.如权利要求2所述的手持用户装置,还包括:
显示单元,显示窗口,其中,在所述窗口中第一用户界面、第二用户界面和第三用户界面被分配了优先等级,
其中,控制器基于优先等级选择第一用户界面、第二用户界面和第三用户界面中的所述两个用户界面。
5.如权利要求1所述的手持用户装置,还包括:
通信单元,从外部装置接收关于外部操作环境的信息,
其中,关于手持用户装置的外部操作环境的信息包括关于运动对象的速度的信息、关于运动对象的运动的信息、关于运动对象中的噪声的信息和关于运动对象中的亮度的信息中的至少一个信息。
6.如权利要求1所述的手持用户装置,其中,手持用户装置的外部操作环境包括运动对象的速度、运动对象的运动、运动对象中的噪声和运动对象中的亮度中的至少一个。
7.如权利要求1所述的手持用户装置,其中,第一用户界面包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入,
其中,第二用户界面包括语音输入、触摸输入、眼部跟踪输入、非触摸运动输入和外部装置输入中的一个输入。
8.如权利要求1所述的手持用户装置,还包括:
显示单元,如果第一用户界面被启用,则显示第一用户界面,如果第二用户界面被启用,则显示第二用户界面,
其中,第一用户界面包括第一图形用户界面元素,
其中,第二用户界面包括比第一图形用户界面元素大的第二图形用户界面元素。
9.如权利要求1所述的手持用户装置,还包括:
显示单元,如果第一用户界面被启用,则显示第一用户界面,如果第二用户界面被启用,则显示第二用户界面,
其中,第一用户界面包括具有第一亮度的第一屏幕,
其中,第二用户界面包括具有与第一亮度不同的第二亮度的第二屏幕。
10.如权利要求1所述的手持用户装置,其中,第一用户界面输出具有第一音量的声音,
其中,第二用户界面输出具有与第一音量不同的第二音量的声音。
11.如权利要求1所述的手持用户装置,还包括:
显示单元,如果第一用户界面被启用,则显示第一用户界面,如果第二用户界面被启用,则显示第二用户界面,
其中,第一用户界面包括第一布局,其中,第一布局包括多个图形用户界面元素,
其中,第二用户界面包括第二布局,其中,第二布局包括所述多个图形用户界面元素中最频繁使用的图形用户界面元素。
12.如权利要求1所述的手持用户装置,其中,手持装置的操作环境包括指示手持装置正与运动对象一起运动的状况。
13.如权利要求1所述的手持用户装置,还包括:
通信单元,通过短距离无线通信接收用户设置,
其中,第一状况和第二状况基于接收的用户设置被确定。
14.如权利要求1所述的手持用户装置,其中,控制器响应于控制器启用第一用户界面或第二用户界面来检测用户的超驰命令,产生与用户的超驰命令相应的样式数据,并基于样式数据修改第一状况和第二状况。
15.一种手持装置的控制方法,所述控制方法包括:
感测手持用户装置的操作状况;
如果操作状况与第一状况相应,则启用第一用户界面并禁用第二用户界面;以及
如果操作状况与第二状况相应,则启用第二用户界面并至少禁用第一用户界面,
其中,操作状况是手持用户装置的外部操作环境和手持用户装置的运动中的至少一个。
CN201380018984.XA 2012-04-08 2013-04-08 用户终端装置及其控制方法 Active CN104204729B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2012-0036470 2012-04-08
KR1020120036470A KR101999182B1 (ko) 2012-04-08 2012-04-08 사용자 단말 장치 및 그의 제어 방법
PCT/KR2013/002934 WO2013154321A1 (en) 2012-04-08 2013-04-08 User terminal device and control method thereof

Publications (2)

Publication Number Publication Date
CN104204729A true CN104204729A (zh) 2014-12-10
CN104204729B CN104204729B (zh) 2018-11-13

Family

ID=48082972

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380018984.XA Active CN104204729B (zh) 2012-04-08 2013-04-08 用户终端装置及其控制方法

Country Status (10)

Country Link
US (1) US10115370B2 (zh)
EP (2) EP2648077B1 (zh)
JP (1) JP2015517149A (zh)
KR (1) KR101999182B1 (zh)
CN (1) CN104204729B (zh)
AU (1) AU2013203009B2 (zh)
BR (1) BR112014024001A8 (zh)
IN (1) IN2014DN09255A (zh)
RU (1) RU2014140600A (zh)
WO (1) WO2013154321A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331291A (zh) * 2015-06-25 2017-01-11 西安中兴新软件有限责任公司 一种操作执行方法和移动终端
CN108881610A (zh) * 2018-04-27 2018-11-23 努比亚技术有限公司 一种终端控制方法、终端及计算机可读存储介质
CN110770108A (zh) * 2017-06-19 2020-02-07 标致雪铁龙汽车股份有限公司 连接到远程服务器的辅助车辆驾驶员进行体育锻炼的设备
CN113412467A (zh) * 2018-10-08 2021-09-17 谷歌有限责任公司 指定用于与自动助理交互的接口模态的操作模式
US11803352B2 (en) 2018-02-23 2023-10-31 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103309618A (zh) * 2013-07-02 2013-09-18 姜洪明 移动操作系统
US9305554B2 (en) 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
KR102063767B1 (ko) * 2013-09-24 2020-01-08 엘지전자 주식회사 이동 단말기 및 이의 제어방법
WO2015089275A1 (en) * 2013-12-12 2015-06-18 Luethke Charles J Method of prioritizing communications transmitted to a computing device
US9924215B2 (en) 2014-01-09 2018-03-20 Hsni, Llc Digital media content management system and method
WO2015122890A1 (en) * 2014-02-12 2015-08-20 Nokia Corporation Method and apparatus for updating a firmware of an apparatus
US20150294639A1 (en) * 2014-04-14 2015-10-15 Sony Corporation Method and system for switching a mode of an electronic device
KR102302233B1 (ko) * 2014-05-26 2021-09-14 삼성전자주식회사 사용자 인터페이스 제공 장치 및 방법
KR102179818B1 (ko) * 2014-05-27 2020-11-17 엘지전자 주식회사 이동단말기 및 그 제어방법
US20170199570A1 (en) * 2014-05-27 2017-07-13 Lg Electronics Inc. Mobile terminal and control method therefor
US9443116B2 (en) 2014-06-03 2016-09-13 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Authentication in a flexible display computing device
US9977505B2 (en) * 2014-06-06 2018-05-22 International Business Machines Corporation Controlling inadvertent inputs to a mobile device
US10362391B2 (en) * 2014-10-24 2019-07-23 Lenovo (Singapore) Pte. Ltd. Adjusting audio content based on audience
WO2016157658A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JP6641830B2 (ja) * 2015-09-18 2020-02-05 カシオ計算機株式会社 電子機器、制御方法及びプログラム
US20170176207A1 (en) * 2015-12-17 2017-06-22 Jaguar Land Rover Limited In vehicle system and method for providing information regarding points of interest
FR3049078B1 (fr) * 2016-03-21 2019-11-29 Valeo Vision Dispositif et procede de commande a reconnaissance vocale et/ou gestuelle pour l'eclairage interieur d'un vehicule
JPWO2017169607A1 (ja) * 2016-03-29 2018-11-08 京セラ株式会社 電子機器
CN106295291A (zh) * 2016-07-22 2017-01-04 深圳天珑无线科技有限公司 终端的解锁方法及装置
JP2018037819A (ja) * 2016-08-31 2018-03-08 京セラ株式会社 電子機器、制御方法及びプログラム
GB2557688B (en) * 2016-12-15 2021-03-24 Ford Global Tech Llc Navigation method and system
KR102403315B1 (ko) * 2017-02-21 2022-06-02 주식회사 오비고 차량 제어를 위한 음성 인식 지원 시스템 및 그 방법
US20190303177A1 (en) * 2018-03-29 2019-10-03 Microsoft Technology Licensing, Llc Adaptive User Interface Based On Detection Of User Positions
US10921595B2 (en) * 2018-06-29 2021-02-16 International Business Machines Corporation Contextual adjustment to augmented reality glasses
US11157169B2 (en) 2018-10-08 2021-10-26 Google Llc Operating modes that designate an interface modality for interacting with an automated assistant
US10960949B2 (en) 2018-10-24 2021-03-30 Honda Motor Co., Ltd. Vibration sensor on motorcycle for providing reactionary function
JP2021157518A (ja) * 2020-03-27 2021-10-07 セイコーエプソン株式会社 表示装置の制御方法、及び、表示装置
KR20210128828A (ko) * 2020-04-17 2021-10-27 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN111625094B (zh) * 2020-05-25 2023-07-14 阿波罗智联(北京)科技有限公司 智能后视镜的交互方法、装置、电子设备和存储介质
WO2023090951A1 (en) 2021-11-19 2023-05-25 Samsung Electronics Co., Ltd. Methods and systems for suggesting an enhanced multimodal interaction

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19961376A1 (de) * 1999-12-20 2001-06-21 Volkswagen Ag Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes in einem Kraftfahrzeug
WO2005002901A1 (de) * 2003-07-07 2005-01-13 Robert Bosch Gmbh Geschwindigkeitsabhängige dienstebereitstellung in einem kraftfahrzeug
US20050154798A1 (en) * 2004-01-09 2005-07-14 Nokia Corporation Adaptive user interface input device
US20090100384A1 (en) * 2007-10-10 2009-04-16 Apple Inc. Variable device graphical user interface
US20110306304A1 (en) * 2010-06-10 2011-12-15 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
US20120001843A1 (en) * 2010-07-01 2012-01-05 Cox Communications, Inc. Mobile Device User Interface Change Based On Motion
CN102393808A (zh) * 2009-06-16 2012-03-28 英特尔公司 手持无线设备中的智能图形界面

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6208932B1 (en) * 1996-09-30 2001-03-27 Mazda Motor Corporation Navigation apparatus
KR100522051B1 (ko) * 2002-12-09 2005-10-18 한국전자통신연구원 개인 휴대 단말을 이용한 차량 항법 시스템에서의 위치 정보 서비스 방법
US7894177B2 (en) * 2005-12-29 2011-02-22 Apple Inc. Light activated hold switch
KR100651729B1 (ko) * 2003-11-14 2006-12-06 한국전자통신연구원 홈네트워크 환경에서의 멀티-모달 상황 인식어플리케이션을 위한 시스템 및 방법
JP4165888B2 (ja) * 2004-01-30 2008-10-15 キヤノン株式会社 レイアウト制御方法、レイアウト制御装置及びレイアウト制御プログラム
US20050179647A1 (en) * 2004-02-18 2005-08-18 Microsoft Corporation Automatic detection and switching between input modes
US7983840B2 (en) * 2004-06-24 2011-07-19 Hi-Tech Products, Inc. System and method for motion-based control of electronic devices
US7369845B2 (en) * 2005-07-28 2008-05-06 International Business Machines Corporation Managing features available on a portable communication device based on a travel speed detected by the portable communication device
US8270933B2 (en) * 2005-09-26 2012-09-18 Zoomsafer, Inc. Safety features for portable electronic device
US20070124043A1 (en) * 2005-11-29 2007-05-31 Ayoub Ramy P System and method for modifying the processing of content in vehicles based on vehicle conditions
US20080005679A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Context specific user interface
KR101305507B1 (ko) 2006-08-22 2013-09-05 삼성전자주식회사 차량용 휴대정보단말 및 그 제어방법
US7581188B2 (en) * 2006-09-27 2009-08-25 Hewlett-Packard Development Company, L.P. Context-based user interface system
US20080215240A1 (en) * 2006-12-18 2008-09-04 Damian Howard Integrating User Interfaces
US20090259397A1 (en) 2008-04-10 2009-10-15 Richard Stanton Navigation system with touchpad remote
US8086265B2 (en) * 2008-07-15 2011-12-27 At&T Intellectual Property I, Lp Mobile device interface and methods thereof
US8509803B2 (en) * 2008-08-21 2013-08-13 Verizon Patent And Licensing Inc. System and method for providing territory-based actionable events
US20100060572A1 (en) * 2008-09-11 2010-03-11 Ely Tsern Display device for interfacing with a handheld computer device that dynamically generates a different user environment for the display device
KR20100051155A (ko) * 2008-11-07 2010-05-17 엘지전자 주식회사 네비게이션 단말기
KR101364814B1 (ko) 2009-06-16 2014-02-19 인텔 코오퍼레이션 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드
US8818624B2 (en) * 2009-10-05 2014-08-26 Tesla Motors, Inc. Adaptive soft buttons for a vehicle user interface
KR101718892B1 (ko) * 2009-11-13 2017-03-24 삼성전자주식회사 모드 전환 방법 및 그 장치
JP2011107899A (ja) * 2009-11-16 2011-06-02 Sony Corp 情報処理装置、設定変更方法及び設定変更プログラム
CN102088498A (zh) * 2009-12-04 2011-06-08 深圳富泰宏精密工业有限公司 手机及利用该手机帮助健身的方法
US20110167365A1 (en) * 2010-01-04 2011-07-07 Theodore Charles Wingrove System and method for automated interface configuration based on habits of user in a vehicle
US8700318B2 (en) * 2010-03-10 2014-04-15 Nissan North America, Inc. System and method for selective cancellation of navigation lockout
US20120095643A1 (en) * 2010-10-19 2012-04-19 Nokia Corporation Method, Apparatus, and Computer Program Product for Modifying a User Interface Format
KR101055703B1 (ko) * 2010-11-24 2011-08-11 주식회사 해빛솔루션 차량의 정황정보에 따라 출력이 제어되는 무선 디스플레이 장치
TW201306606A (zh) * 2011-07-26 2013-02-01 Hon Hai Prec Ind Co Ltd 音量調節裝置及方法
US20130106699A1 (en) * 2011-10-26 2013-05-02 Research In Motion Limited Portable electronic device and method of character entry
US20140181715A1 (en) * 2012-12-26 2014-06-26 Microsoft Corporation Dynamic user interfaces adapted to inferred user contexts

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19961376A1 (de) * 1999-12-20 2001-06-21 Volkswagen Ag Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes in einem Kraftfahrzeug
WO2005002901A1 (de) * 2003-07-07 2005-01-13 Robert Bosch Gmbh Geschwindigkeitsabhängige dienstebereitstellung in einem kraftfahrzeug
US20050154798A1 (en) * 2004-01-09 2005-07-14 Nokia Corporation Adaptive user interface input device
US20090100384A1 (en) * 2007-10-10 2009-04-16 Apple Inc. Variable device graphical user interface
CN102393808A (zh) * 2009-06-16 2012-03-28 英特尔公司 手持无线设备中的智能图形界面
US20110306304A1 (en) * 2010-06-10 2011-12-15 Qualcomm Incorporated Pre-fetching information based on gesture and/or location
US20120001843A1 (en) * 2010-07-01 2012-01-05 Cox Communications, Inc. Mobile Device User Interface Change Based On Motion

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331291A (zh) * 2015-06-25 2017-01-11 西安中兴新软件有限责任公司 一种操作执行方法和移动终端
CN110770108A (zh) * 2017-06-19 2020-02-07 标致雪铁龙汽车股份有限公司 连接到远程服务器的辅助车辆驾驶员进行体育锻炼的设备
CN110770108B (zh) * 2017-06-19 2023-04-07 标致雪铁龙汽车股份有限公司 连接到远程服务器的辅助车辆驾驶员进行体育锻炼的设备
US11803352B2 (en) 2018-02-23 2023-10-31 Sony Corporation Information processing apparatus and information processing method
CN108881610A (zh) * 2018-04-27 2018-11-23 努比亚技术有限公司 一种终端控制方法、终端及计算机可读存储介质
CN113412467A (zh) * 2018-10-08 2021-09-17 谷歌有限责任公司 指定用于与自动助理交互的接口模态的操作模式

Also Published As

Publication number Publication date
CN104204729B (zh) 2018-11-13
EP2648077A1 (en) 2013-10-09
US20130265261A1 (en) 2013-10-10
US10115370B2 (en) 2018-10-30
JP2015517149A (ja) 2015-06-18
WO2013154321A1 (en) 2013-10-17
IN2014DN09255A (zh) 2015-07-10
EP3190501A1 (en) 2017-07-12
EP2648077B1 (en) 2017-04-05
AU2013203009B2 (en) 2014-12-18
KR101999182B1 (ko) 2019-07-11
AU2013203009A1 (en) 2013-10-24
BR112014024001A8 (pt) 2017-07-25
RU2014140600A (ru) 2016-04-27
BR112014024001A2 (zh) 2017-06-20
KR20130113897A (ko) 2013-10-16

Similar Documents

Publication Publication Date Title
CN104204729A (zh) 用户终端装置及其控制方法
US11226625B2 (en) Guidance of autonomous vehicles in destination vicinities using intent signals
JP6710791B2 (ja) ユーザデバイスの状況認識サービス提供方法および装置
CN106133653B (zh) 信息处理装置
US9767799B2 (en) Voice recognition system and recognition result display apparatus
CN104838335B (zh) 使用凝视检测的设备的交互和管理
JP6475908B2 (ja) ユーザデバイスの状況認識サービス提供方法および装置
KR102010298B1 (ko) 영상표시장치 및 영상표시장치의 동작방법
WO2017186008A1 (zh) 服务显示方法、装置、设备和系统
EP2806335A1 (en) Vehicle human machine interface with gaze direction and voice recognition
BR112016015503B1 (pt) Método, sistema e veículo para sumário pós-direção com tutorial
KR20140112910A (ko) 입력 제어 방법 및 이를 지원하는 전자 장치
JP2019144955A (ja) 電子機器、制御方法およびプログラム
US20140181651A1 (en) User specific help
KR20180072127A (ko) 헤드 유닛 및 이를 포함하는 차량, 헤드 유닛의 차량 제어 방법
KR20100050322A (ko) 내비게이션 장치 및 그 방법
WO2019163503A1 (ja) 電子機器、制御方法およびプログラム
JP2019145094A (ja) 電子機器、制御方法およびプログラム
CN106331310A (zh) 移动终端及其控制方法
JP6471261B1 (ja) 電子機器、制御方法およびプログラム
JP6417062B1 (ja) 電子機器、制御方法およびプログラム
KR20210117129A (ko) 사용자 단말 장치, 서버 및 이들을 이용한 운전자 주행 정보 제공 방법
KR20100038692A (ko) 내비게이션 장치 및 그 방법
US20170097244A1 (en) Route guidance method, navigation terminal and vehicle including the same
KR101622692B1 (ko) 전자기기 및 그것의 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant