CN105027062A - 信息处理装置 - Google Patents

信息处理装置 Download PDF

Info

Publication number
CN105027062A
CN105027062A CN201480011502.2A CN201480011502A CN105027062A CN 105027062 A CN105027062 A CN 105027062A CN 201480011502 A CN201480011502 A CN 201480011502A CN 105027062 A CN105027062 A CN 105027062A
Authority
CN
China
Prior art keywords
menu
user
icon
display
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480011502.2A
Other languages
English (en)
Inventor
高田晋太郎
松原孝志
森直树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of CN105027062A publication Critical patent/CN105027062A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/113Scrolling through menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • B60K2360/115Selection of menu items
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/141Activation of instrument input devices by approaching fingers or pens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种信息处理装置,其包括:控制车载装置整体动作的车载装置控制部;能够测定与物体的距离和检测手势的传感部;和显示视频、图像的显示部。传感部持续监视显示部的前方多少距离存在物体,在检测到驾驶员的手进入显示部前方的规定的区域1的情况下,将显示部上显示的特定图标移动到驾驶员侧。进一步,在包括扬声器的情况下,在移动图标的同时从扬声器输出效果音或语音。在检测到驾驶员的手进入比区域1更靠近显示部的区域2的情况下,使图标下层存在的菜单以展开的方式扇状地扩展显示,从扬声器输出效果音。进一步,以使所显示的菜单显示一定时间的方式动作,在该状态下持续显示,直到经过一定时间、或者驾驶员做动作等的手势、或者开关输入部接收到输入为止。

Description

信息处理装置
援引加入
本申请主张2013年7月5日申请的日本专利申请第2013-141304号的优先权,通过参考其内容而将其包含于本申请内。
技术领域
本发明涉及信息处理装置。
背景技术
在日本特开2011-170598(专利文献1)中记载了通过将触摸屏的布局改变为适合左手指和右手指的操作,能够期待获得使用户在触摸屏上的操作更容易的效果的触摸屏输入装置。
现有技术文献
专利文献
专利文献1:日本特开2011-170598
发明内容
发明要解决的技术问题
然而,在上述技术和以往技术中,为了触摸在屏幕上显示的按钮,用户必须伸手触摸。并且,为了在注视在屏幕上显示的按钮的同时进行触摸,用户视线被所操作的对象占用。进一步,为了显示层次化的菜单,用户需要多次触摸操作,操作次数和操作时间增加。此外,在基于手势的操作的情况下,需要进行规定的动作,用户必须记得动作。
本发明的课题为提供用户不需要大幅度地伸手且视线不会长时间被占用、并且操作所需的操作次数尽可能地少的、能够进行期望的操作的信息处理装置。
解决技术问题的手段
关于作为本发明的信息处理装置的一个例子的车载装置,为一种能够减少驾驶员的分心(distraction,因驾驶操作之外的动作而从驾驶中分散注意力)并能够实现期望的操作的车载装置,其包括:控制车载装置整体动作的车载装置控制部;能够测定与物体的距离和检测手势的传感部;能够进行基于触摸的输入的触摸输入部;显示视频、图像的显示部;和输出声音的扬声器。
传感部监视位于显示部前方的物体的距离,在检测到驾驶员的手进入显示部前方的规定的区域1的情况下,车载装置控制部进行控制,将显示部上显示的特定按钮或图标移动到驾驶员侧,并从扬声器输出效果音。在传感部检测到驾驶员的手进入比区域1更靠近显示部的区域2的情况下,车载装置控制部进行控制,使图标下层存在的菜单展开显示,从扬声器输出效果音。然后进行控制使得所显示的菜单显示一定时间。进入该状态后,持续显示菜单,直到经过一定时间,或者驾驶员做动作等的手势,或者所显示的菜单被触摸为止。
发明的效果
通过本发明,用户不需要大幅度地伸手且视线不会长时间被占用、并且操作所需的操作次数尽可能地少,就能够进行期望的操作。
本发明的其它目的、特征和优点可通过与附图相关的本发明的以下实施例的记载得以明了。
附图说明
图1是本发明的第一实施例的车载装置的结构图。
图2是本发明的第一实施例的传感部的设置例子。
图3是本发明的第一实施例的车载装置的动作流程。
图4是显示部112的显示内容和用户的手的检测区域的图。
图5是显示部112的显示内容和用户的手的检测区域的图。
图6是显示部112的显示内容和用户的手的检测区域的图。
图7是显示部112的显示内容和用户的手的检测区域的图。
图8是显示部112的显示内容的图。
图9是显示部112的显示内容的图。
图10是本发明的第二实施例的车载装置的动作流程。
图11是显示部112的显示内容和用户的手的检测区域的图。
图12是本发明的第三实施例的传感部的设置例子。
图13是本发明的第三实施例的车载装置的动作流程。
图14是显示部112的显示内容和用户的手的检测区域的图。
图15是显示部112的显示内容和用户的手的检测区域的图。
图16是用户的手的检测区域的图。
具体实施方式
以下参考附图对本发明的实施方式详细地进行说明。
1.第一实施例
图1是本实施例的车载装置101的框图。此外,本实施例的车载装置101安装在方向盘设置于面向前进方向时的右侧的车辆上。
车载装置控制部102包括CPU和由其执行的软件,为控制车载装置101的整体动作的部分,具有距离检测部104、位置检测部105和手势检测部106。具体地,控制作为基本汽车导航系统的动作,并且基于各种输入信息控制输出的内容。
距离检测部104基于后述的传感部103输出的电压来计算从传感部103到用户的手的距离。位置检测部105基于传感部103输出的电压来确定用户的手在哪个位置。进一步地,手势检测部106基于传感部103输出的电压来判定用户是否进行了规定的动作(以下称为“手势”)。
传感部103由具有照射红外线的投光灯和接收近距离(例如5cm内)的物体反射的红外线的受光器的红外距离传感器构成。传感部103将与受光器接收到的光量对应的电压输出到车载装置控制部102。
图2表示包含传感部103的显示部112的具体例子。传感部103具有多个红外距离传感器103A~103C,红外传感器103A~103C纵向排列配置在显示部112右端。红外传感器103A~103C各自独立,将与受光器接收到的光量对应的电压输出到车载装置控制部102。作为驾驶员的用户将手伸到显示部112的前面的期间,用户的手和手腕位于传感部103的前方。
此时,通过确定哪个红外传感器103A~103C检测出用户的手等,车载装置控制部102可检测出用户的手位于显示部112的上侧、中部或下侧中的哪个部分。此外,车载装置控制部102能够通过传感部103输出的电压的高低得知例如用户的手指与传感部103的距离。
此外,如图2所示,在本实施例中,将从传感部103起至离开第一距离(例如5cm)的显示部112前方空间定义为区域1,将从传感部103起至离开第二距离(例如2.5cm)的显示部112前方空间中在显示部112的上侧的一半定义为区域2,进一步,将从传感部103起至离开第二距离(例如2.5cm)的显示部112前方空间中在显示部112的下侧的一半定义为区域3。
车载装置控制部102对确定了上述各距离、传感部103输出的电压值、与检测用户的手等的红外距离传感器的种类之间的关系的数据表进行存储,根据该数据表与从传感部103实际输出的电压来确定用户的手等存在于区域1~3中的哪个。
此外,构成传感部103的红外距离传感器的数目和设置位置并不限定于本实施例。图2的传感部103表示在右方向盘车辆的情况下考虑到驾驶员的手从右侧过来而设置在显示部112的右侧的例子。在左方向盘车辆的情况下,考虑到驾驶员的手从左侧过来,可以设置在显示部112的左侧。此外,在应用于个人计算机或数字标牌(DigitalSignage)等的情况下,可将传感部103设置在惯用手侧。车载装置控制部102使用传感部103来确定的区域的数目也不限定于本实施例。
此外,作为构成传感部103的部件并不限定于红外距离传感器,例如可以由激光距离传感器、超声波距离传感器、距离图像传感器、电解传感器或图像传感器等传感器以及进行数据处理的微机和在微机上工作的软件构成。
再次回到图1,语音识别部108基于从麦克风107获得的语音数据进行语音识别,将输入的语音转换成文字信息或表示对车载装置101的操作的信号。
开关输入部109向车载装置控制部102传递设置在车载装置101上的开关是否被按下。
触摸输入部110将触摸的坐标传递到车载装置控制部102。
行驶状态输入部111为输入与设置有车载装置101的车辆的状态相关的信息的部分,将车速、加速器、各制动器的状态等的信息传递到车载装置控制部102。
显示部112为向用户提示图像信息的装置,例如为具有LCD(Liquid Crystal Display:液晶显示器)等显示器装置以及图像内容或GUI(Graphical User Interface:图形用户界面)等显示处理所需的运算处理装置和存储器的装置。此外,本实施例的显示部112采用与触摸输入部110一体化的触摸屏。扬声器113为将声音输出到外部的单元。
触觉界面部114设置在用户接触的设备中,例如设置于方向盘或座椅等。在车载装置控制部102发出命令的时刻进行振动或流过微弱的电流等,通过触觉向用户传递信息。
利用图3的流程图说明车载装置控制部102的动作。本流程图中,当车辆发动机启动时,车载装置101的动作开始。此外,在图4所示的显示部112上显示地图或时刻等导航相关的信息和各种图标。在本实施例中显示NAVI图标和AV图标。在本实施例中,将用户选择项目所用的项目选择画面层次化并由车载装置控制部102存储。
车载装置控制部102启动传感部103(S301:“传感部启动”)。然后,监视图4所示的区域1中是否检测到用户的手,如图5所示,在区域1中检测到用户的手的情况下(S302:“区域1中检测到手?”是(Yes)),车载装置控制部102控制扬声器113输出第一效果音或语音(S303:“从扬声器输出效果音”)。这里的效果音例如为表示手进入区域1的“嘭”等声音或类似物体移动的“咻”等声音。
车载装置控制部102控制显示部112,使其例如如图5的NAVI图标所示,将显示部112显示的规定的图标移动到右侧,即驾驶员侧(S304:“将规定的图标移动到规定的位置”)。在此,NAVI图标在图形中显示“NAVI”文字,但也可不在图形中显示而仅显示“NAVI”文字,在区域1中检测到用户的手时,仅将“NAVI”文字移动到规定位置。之后,如果传感部103在区域1中检测不到用户的手(S305:“在区域1内存在手?”否(No)),车载装置控制部102控制扬声器113输出第二效果音或语音(S306:“从扬声器输出效果音”)。
这里的效果音例如为表示手离开区域的“嘭”等声音或类似物体移动的“咻”等声音。然后,车载装置控制部102控制显示部112,使移动的图标回到图4所示的初始显示位置(S307:“使图标回到初始位置”)。
传感部103在区域1中存在用户的手(S305:“在区域1内存在手?”是(Yes))且图6的区域2中检测到用户的手(S308:“区域2或区域3内存在手”?区域2)的情况下,车载装置控制部102如图6所示,控制显示部112,使NAVI图标下层的菜单扇状展开显示(S309:“展开规定的图标的菜单”)。在本实施例中,分别显示作为NAVI图标下层的菜单的“目的地”、“周边搜索”、“地点注册”和“家”的菜单。
同样地,在传感部103在图7的区域3中检测到用户的手(S308:“在区域2或区域3内存在手”?区域3)的情况下,车载装置控制部102如图7所示,控制显示部112,使AV图标下层的菜单扇状展开显示(S310:“展开规定的图标的菜单”)。在本实施例中,分别显示作为“AV”图标下层的菜单的“FM/AM”、“列表”、“下一曲”和“上一曲”的菜单。
车载装置控制部102控制扬声器113使其输出与画面上的动作对应的第三效果音或语音(S311:“从扬声器输出效果音”)。这里的效果音例如输出物体扩散的“唰”等声音。此外,也可使用“咔嚓”等效果音来通知菜单展开显示的状态。
之后,车载装置控制部102使扇状地展开显示的菜单持续显示一定时间(S312:“固定菜单的展开”)。手势检测部106在例如传感部103的前方检测到用户进行再见的动作等的手势(S313:“检测到规定的手势”?是(Yes))的情况下,车载装置控制部102使扇状地展开显示的菜单停止显示(S314:“关闭展开的菜单”),转移到步骤S306、S307。
在手势检测部106未检测到用户的手势(S313:“检测到规定的手势?”否(No))而经过了一定时间,例如从菜单显示开始经过10秒(S315:“经过规定的时间?”是(Yes))的情况下,车载装置控制部102执行S314的步骤的处理。在接收到触摸所显示的菜单等用户的输入操作时,通过触摸而选择的菜单作为图标显示在之前显示的图标的位置,并使所选择的菜单的下层的菜单扇状地显示。例如,在通过触摸选择了“目的地”的情况下,将“目的地”作为图标显示在显示NAVI图标的位置,并使“目的地”的下层的菜单扇状地显示。当选择菜单直到最下层并选择了期望的项目(S316:“用户的输入操作结束?”是(Yes))时,车载装置控制部102将图标设为菜单的最上层并回到初始显示位置(S317:“使图标回到初始位置”),执行步骤S302的处理。
当菜单显示时,重复执行S313、S315、S316的条件判定。此外,也可为如下结构:在图3的动作流程中,即使在区域2或3的其中之一检测到用户的手并在S312的处理中显示菜单,在其它区域检测到手的情况下,也会进行与新检测到的区域对应的菜单的显示(S309或S310)。由此,由于用户不触摸就显示菜单,能够减少触摸操作的次数,减少操作时间。
此外,在S313中判定是否检测到规定的手势,但也可为判定在语音识别部108中是否检测到规定的发声的结构。规定的发声例如可使用“取消”、“主页”或“返回”等词汇。由此,用户不伸手到传感部103前就能够停止扇状地展开显示的菜单的显示,因此可期望进一步地减少用户从车辆驾驶中分散注意力的可能性。此外,也可通过按下硬件开关或转向控制器等的按钮来停止扇状地展开显示的菜单的显示,使按钮返回初始显示位置。
此外,也可使从扬声器113输出效果音或语音的方案为作为扬声器113的效果音的替代或者在扬声器113的效果音的输出的同时使触觉IF部114动作的方案。由此,即使在周围噪音大、用户无法听见来自扬声器113的声音的情况下,也能够通过用户的触感来传递信息,因此能够适当地向用户传递操作状况。
如上所述,根据本实施例,驾驶员只要把手伸向显示部112,规定的图标就会向驾驶员侧移动并在显示部112上显示,因此驾驶员不大幅改变驾驶姿势就能够进行该图标的下层的菜单的触摸操作。
此外,由于可不触摸目标图标而只需将手伸到附近即可显示图标的下层的菜单,因此能够减少触摸操作的工夫、次数或时间,能够降低伴随着操作驾驶员从车辆驾驶分散注意力的可能性。
进一步,通过使一次显示菜单的状态持续一定时间,即使驾驶员临时把手放回方向盘后再次操作时,也能够在显示菜单的状态下接着进行操作,因此能够减少使菜单重新显示的时间等。此外,在停止菜单的显示时,可通过经过一定时间、手势或语音识别等简单的操作实现,因此能够减少从车辆驾驶中分散注意力的可能性。
此外,也可为在S309或S310中显示菜单时基于来自行驶状态输入部111的信息来限制可操作的菜单的结构。具体地,根据行驶状态输入部111的输入判断行驶状态,在车辆不在行驶状态的情况下,使全部菜单可操作,而车辆在行驶状态的情况下,限制一部分的菜单的操作。
在本实施例中,如图8所示,为了使“目的地”和“周边搜索”的菜单在行驶中无法操作,使其变灰而不能触摸操作。由此,能够预防行驶中驾驶员进行复杂的操作,能够有利于安全驾驶。此外,在区域1中未检测到手的状态下,在触摸在初始显示位置显示的图标的情况下,如图9所示,无论是否为行驶状态,都使所有的菜单可操作。由此,如果是除驾驶员之外的不进行驾驶的人,例如副驾驶座的人,则即使在行驶中也能够进行复杂的操作。
此外,对于图2中传感器元件的设置,在传感器数目更少的情况下,例如在仅使用103B的结构的情况下,本实施例所说明的动作不区别手进入了两个区域中的哪一个,而进行手是否进入图4中的区域1的判定动作。具体地,如果在区域1中检测到手,使离驾驶员较远的图标向驾驶员靠近,并在检测到手接近的情况下,使该图标的下层的菜单以展开的方式扇状扩展显示。其后的动作与图3的流程相同。
2.第二实施例
本实施例的装置的结构与图1记载的车载装置101相同。利用图10的动作流程对本实施例的车载装置101的动作详细地进行说明。此外,对进行与图3相同的动作的步骤在图10中标注与图3相同的编号并省略说明。
车载装置控制部102在基于传感部102的信息检测到区域1中存在用户的手时,车载装置控制部102控制显示部112,使显示部112上显示的规定图标(NAVI按钮)移动(S302到S304),并如图11所示,进行控制使得移动后的图标的下层的菜单在显示部112上展开显示(S1001:“展开菜单”)。
之后,车载装置控制部102在基于传感部102的信息检测到图6所示的区域2中存在用户的手时(S1002:“在区域2或3内存在手?”区域2),进行控制使得从扬声器113输出第三效果音(S1004:“从扬声器输出效果音”)。
另一方面,车载装置控制部102在检测到图7所示的区域3中存在用户的手(S1002:“在区域2或3内存在手?”区域3)的情况下,进行控制,使已在显示部112上显示的NAVI图标的下层的菜单的显示停止,并使另一个图标(AV图标)的下层的菜单扇状地展开显示(S1003:“关闭菜单的展开,并展开规定的图标的菜单”)。
并且,在执行S306的处理后,车载装置控制部102增加如下处理:控制显示部112,使NAVI图标或AV图标的下层的菜单的显示停止(S1005:“使展开的菜单关闭”)。
此外,在S1001中,显示的下层菜单并不限定于NAVI图标,也可为AV图标。进一步,对于它们的显示的设定,也可为用户事先决定好的结构。由此,能够进行符合用户偏好的菜单显示,能够进一步减少实现规定操作的工夫、操作次数。
通过进行如上动作的车载装置101,驾驶员只需伸手,显示部112上显示的图标就会移动到驾驶员侧,并使所显示的图标的下层的菜单按钮显示,因此驾驶员不大幅改变驾驶姿势就能够进行车载装置的操作,因而能够减少触摸操作的工夫、次数或时间,能够降低从车辆驾驶分散注意力的可能性。
3.第三实施例
在本实施例中,装置的结构与图1记载的车载装置101相同。此外,关于驾驶员侧的用户的手的动作与上述实施例相同。以下针对作为本实施例的特征的进行副驾驶座侧的用户的手的检测的动作进行说明。
图12是本实施例的传感部103的设置例。相对于显示部112,在右方向盘车辆的驾驶员侧纵向地配置的103A、103B、103C三个位置设置有传感器元件。进一步,在显示部112的横向也设置103D和103E两个元件。由此,不仅如实施例1或实施例2所述地检测驾驶员侧的手,并且能够如图12下图所示地检测副驾驶座侧的用户的手的位置和距离。
利用图13的动作流程针对本实施例的车载装置101的动作详细地进行说明。
首先启动车辆的发动机等,开始车载装置101的动作。如图14所示,车载装置控制部进行控制,在显示部112上显示地图或时刻等导航相关的信息和各种图标。
本实施例在显示部112上显示NAVI图标和AV图标。传感部103监视图14所示的区域4(从传感部103起至第一距离的显示部112的前方,左半部区域)中是否检测到副驾驶座的用户的手,如图15所示,在传感部103检测到在区域4中存在用户的手(S1302:“区域4中检测到手?”:是(Yes))的情况下,车载装置控制部102控制使得从扬声器113输出第四效果音或语音(S1303:“从扬声器输出效果音”)。效果音为物体移动的声音,例如输出“咻”等声音。
然后,车载装置控制部102将显示部112上显示的图标(图15中的NAVI图标)移动到副驾驶座侧(S1304:“将规定的图标移动到规定位置”)。之后,传感部103在区域4中没有检测到用户的手(S1305:“在区域4内存在手?”否(No))时,车载装置控制部102进行控制使得从扬声器113输出效果音或语音(S1306:“从扬声器输出效果音”)。
效果音为物体移动那样的声音,例如输出“咻”等声音。并且,车载装置控制部102控制显示部112,使移动到副驾驶座侧的图标回到初始显示位置(S1307:“使图标回到初始位置”)。
车载装置控制部102在传感部103在区域4中检测到用户的手(S1305:“在区域4内存在手?”是(Yes))且在图16中的区域5(从传感部103起至第二距离的显示部112的前方,左半部区域)中也检测到用户的手(S1308:“在区域5或区域6内存在手?”区域5)的情况下,控制显示部112,将NAVI图标的下层的菜单以展开的方式显示(S1309:“展开规定图标的菜单”)。
在本实施例中,分别显示作为NAVI图标下层的菜单的“目的地”、“周边搜索”、“地点注册”和“家”。同样地,在传感部103在图16的区域6(从传感部103起至第二距离的显示部112的前方,右半部区域)中检测到用户的手(S1308:“在区域5或区域6内存在手”?区域6)时,车载装置控制部102控制显示部112,显示AV图标的下层的菜单(S1310)。
在本实施例中,分别显示作为AV图标下层的菜单的“FM/AM”、“列表”、“下一曲”和“上一曲”的菜单。
进行S1309或S1310的处理时,车载装置控制部102进行控制,从扬声器113输出与显示部112的处理对应的效果音或语音(S1311:“从扬声器输出效果音”)。例如输出物体扩散的“唰”等声音。
之后,显示其菜单(S1312:“固定菜单的展开”)。在传感部102检测到用户做出手势(例如在传感部103的前方做再见的动作等)(S1313:“检测出规定的手势?”是(Yes))的情况下,使显示中的菜单停止显示(S1314:“关闭展开的菜单”),进行S1306、S1307的处理。在未检测到手势(S1313:“检测到规定的手势?”否(No))而经过了一定时间,例如从菜单显示开始经过10秒(S1315:“经过规定的时间?”是(Yes))的情况下,进入S1314,使展开显示中的菜单停止显示。
此外,在接收到触摸所显示的菜单等用户输入操作时,通过触摸而选择的菜单作为图标显示在之前显示的图标的位置,并使所选择的菜单的下层的菜单扇状地展开显示。例如,在通过触摸选择了“目的地”的情况下,将“目的地”作为图标显示在显示NAVI图标的位置,并使“目的地”的下层的菜单扇状地显示。当选择菜单直到最下层并选择了期望的项目(S1316:“用户的输入操作结束?”是(Yes))时,车载装置控制部102控制显示部112,将图标设为菜单的最上层并使移动到驾驶员侧的图标回到初始显示位置(S1317:“使图标回到初始位置”),执行S1302的处理。
当图标的下层的菜单显示后,重复执行S1313、S1315、S1316的处理。此外,也可为如下结构:在图13的动作流程中,即使在区域5和6的其中之一检测到用户的手并在S1312的处理中继续显示菜单,之后在其它区域检测到手的情况下,也会进行与新检测到的区域对应的菜单的显示(S1309或S1310)。
由此,由于用户能够顺畅地切换菜单显示,易于探索期望的菜单。此外,在S1313中判定是否检测到规定的手势,但也可为在语音识别部108中判定是否检测到规定的发声的结构。规定的发声例如可设定为“取消”、“主页”或“返回”等任意词汇。由此,用户不将手伸到传感部103前就能够停止菜单的显示并使图标回到初始显示位置。此外,也可通过按下硬件开关或转向控制器等的按钮来停止以展开的方式显示的菜单的显示,使按钮返回初始显示位置。
通过使车载装置基于以上的动作流程动作,不仅是驾驶员,副驾驶座的人伸出手,菜单即可显示在副驾驶座侧。此外,在进行期望的操作时,由于不触摸目标图标而只使手接近附近即可显示图标的下层的菜单,因此能够减少触摸操作的工夫、次数。此外,在停止菜单的显示时,可通过经过一定时间、手势、语音识别等解除显示,因此副驾驶座侧的人员几乎不会分心。
此外,在所有的实施例中都以车载装置为例进行了说明,但本发明并不限定于此,可适用于个人计算机或数字标牌等具有显示部和输入单元的装置。
此外,本发明并不限定于上述实施例,包含了各种变形例。例如,上述实施例是为了简单易懂地说明本发明而进行的详细说明,并没有限定必须具备所说明的全部的结构。此外,可将某实施例的结构的一部分替换成其它实施例的结构,或者可在某实施例中添加其它实施例的结构。另外,针对各实施例的结构的一部分,能够进行其它结构的追加、删除、替换。
并且,控制线和信息线示出说明所需的部分,产品中未必表现出所有的控制连线和信息连线。实际上可以认为几乎全部的结构互相连接。
附图标记
101……车载装置
102……车载装置控制部
103……传感部
104……距离检测部
105……位置检测部
106……手势检测部
107……麦克风
108……语音识别部
109……开关输入部
110……触摸输入部
111……行驶状态输入部
112……显示部
113……扬声器
114……触觉IF部

Claims (12)

1.一种信息处理装置,其特征在于,包括:
检测用户的手的距离和位置的传感部;
显示图像或视频的显示部;和
控制装置整体的动作的装置控制部,
所述装置控制部当所述传感部在规定的区域中检测到用户的手时,移动在所述显示部显示的图标的显示位置。
2.如权利要求1所述的信息处理装置,其特征在于:
所述装置控制部当所述传感部在比所述规定区域更靠近所述显示部的区域中检测到所述用户的手时,显示所述图标的下层的菜单。
3.如权利要求2所述的信息处理装置,其特征在于:
所述装置控制部显示所述菜单一定时间。
4.如权利要求3所述的信息处理装置,其特征在于:
包括检测用户的手势的手势检测部,
所述装置控制部在正在显示所述菜单时,在所述手势检测部检测到用户的动作的情况下,停止所述菜单的显示,使所述图标回到初始的显示位置。
5.如权利要求3所述的信息处理装置,其特征在于:
包括识别用户的发声的语音识别部,
所述装置控制部在所述菜单正在显示时,在所述语音识别部识别到用户的发声的情况下,停止所述菜单的显示,使所述图标回到初始的显示位置。
6.如权利要求3所述的信息处理装置,其特征在于:
包括接收用户的输入的开关部,
所述装置控制部在所述菜单正在显示时,当所述开关部接收到用户的输入的情况下,停止所述菜单的显示,使所述图标回到初始的显示位置。
7.如权利要求1所述的信息处理装置,其特征在于:
包括扬声器部,
所述装置控制部在所述传感部在规定的区域内检测到用户的手时,从所述扬声器部输出规定的语音。
8.如权利要求1所述的信息处理装置,其特征在于:
所述装置控制部在使所述图标移动后,在经过规定时间后使所述图标回到初始的显示位置。
9.如权利要求1所述的信息处理装置,其特征在于:
包括触觉界面部,
所述装置控制部在所述传感部在规定的区域中检测到用户的手时,通过所述触觉界面部向用户提示规定的触觉信息。
10.如权利要求2所述的信息处理装置,其特征在于:
包括扬声器部或接触界面部,
所述装置控制部在显示所述菜单时,输出语音或触觉信息。
11.如权利要求8所述的信息处理装置,其特征在于:
包括扬声器部或接触界面部,
所述装置控制部在所述图标回到初始的显示位置时,输出语音或触觉信息。
12.如权利要求1所述的信息处理装置,其特征在于:
包括接收车辆的行驶状态的行驶状态输入部,
所述装置控制部根据从所述行驶状态输入部获得的行驶状态,对规定的所述菜单改变显示的方式。
CN201480011502.2A 2013-07-05 2014-05-28 信息处理装置 Pending CN105027062A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013-141304 2013-07-05
JP2013141304 2013-07-05
PCT/JP2014/064099 WO2015001875A1 (ja) 2013-07-05 2014-05-28 情報処理装置

Publications (1)

Publication Number Publication Date
CN105027062A true CN105027062A (zh) 2015-11-04

Family

ID=52143466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480011502.2A Pending CN105027062A (zh) 2013-07-05 2014-05-28 信息处理装置

Country Status (5)

Country Link
US (2) US20160004322A1 (zh)
EP (1) EP3018568A4 (zh)
JP (1) JP6113281B2 (zh)
CN (1) CN105027062A (zh)
WO (1) WO2015001875A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536348A (zh) * 2017-03-06 2018-09-14 大众汽车有限公司 用于提供操作界面的方法和操作系统
CN110968048A (zh) * 2018-09-28 2020-04-07 本田技研工业株式会社 智能体装置、智能体控制方法以及存储介质
CN111651108A (zh) * 2019-11-05 2020-09-11 摩登汽车有限公司 终端显示屏Dock栏的控制系统、方法及汽车
CN117962742A (zh) * 2024-03-29 2024-05-03 长城汽车股份有限公司 车辆组件的控制方法、装置和车辆

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104302517A (zh) * 2012-05-18 2015-01-21 丰田自动车株式会社 车辆的信息显示装置
US10503357B2 (en) * 2014-04-03 2019-12-10 Oath Inc. Systems and methods for delivering task-oriented content using a desktop widget
JP5899251B2 (ja) * 2014-01-29 2016-04-06 本田技研工業株式会社 車両用入力装置
JP6642424B2 (ja) * 2014-06-03 2020-02-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
GB201414781D0 (en) * 2014-08-20 2014-10-01 Jaguar Land Rover Ltd Improvements related to user interfaces
JP6426025B2 (ja) * 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置
WO2017015046A1 (en) 2015-07-17 2017-01-26 Crown Equipment Corporation Processing device having a graphical user interface for industrial vehicle
CN105005385A (zh) * 2015-07-20 2015-10-28 深圳前海智云谷科技有限公司 一种具有红外手势识别的车载电子装置及交互方法
US9886086B2 (en) * 2015-08-21 2018-02-06 Verizon Patent And Licensing Inc. Gesture-based reorientation and navigation of a virtual reality (VR) interface
CN106933462B (zh) * 2015-12-30 2020-05-08 阿里巴巴集团控股有限公司 一种移动终端的操作栏排布方法和装置
CN105609564B (zh) * 2016-03-14 2018-12-25 京东方科技集团股份有限公司 一种薄膜晶体管制造方法及薄膜晶体管
GB2539329A (en) * 2016-06-03 2016-12-14 Daimler Ag Method for operating a vehicle, in particular a passenger vehicle
DE102017216527A1 (de) * 2017-09-19 2019-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Anzeigen von Informationspunkten auf einer digitalen Landkarte
CN107659637B (zh) * 2017-09-21 2020-08-04 广州酷狗计算机科技有限公司 音效设置方法、装置、存储介质以及终端
CN108983967A (zh) * 2018-06-20 2018-12-11 网易(杭州)网络有限公司 Vr场景中的信息处理方法、装置、存储介质及电子设备
WO2020003914A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 電子機器、移動体、プログラムおよび制御方法
WO2020018592A1 (en) 2018-07-17 2020-01-23 Methodical Mind, Llc. Graphical user interface system
DE102018214784A1 (de) * 2018-08-30 2020-03-05 Audi Ag Verfahren zum Darstellen mindestens eines Zusatzanzeigeinhalts
FR3086420B1 (fr) * 2018-09-21 2020-12-04 Psa Automobiles Sa Procede de commande d’un systeme embarque
JP7252866B2 (ja) * 2019-09-10 2023-04-05 株式会社東海理化電機製作所 制御装置、制御方法、及びプログラム
US20210278962A1 (en) * 2020-03-05 2021-09-09 Kabushiki Kaisha Tokai Rika Denki Seisakusho Operation input device, control device, non-transitory storage medium
CN116670635A (zh) 2020-12-31 2023-08-29 斯纳普公司 具有触觉反馈的实时视频通信界面
CN116745743A (zh) * 2020-12-31 2023-09-12 斯纳普公司 具有触觉反馈响应的通信界面
CN116685941A (zh) 2020-12-31 2023-09-01 斯纳普公司 具有触觉反馈增强的媒体内容项
CN116648687A (zh) 2020-12-31 2023-08-25 斯纳普公司 具有触觉反馈响应的电子通信界面
US20220317774A1 (en) * 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
US20220317773A1 (en) * 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
KR20230109201A (ko) * 2022-01-12 2023-07-20 현대모비스 주식회사 적어도 하나의 센서를 이용하여 사용자 위치를 인식하는 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110096033A1 (en) * 2009-10-26 2011-04-28 Lg Electronics Inc. Mobile terminal
JP2011198210A (ja) * 2010-03-23 2011-10-06 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US20110291985A1 (en) * 2010-05-28 2011-12-01 Takeshi Wakako Information terminal, screen component display method, program, and recording medium
US20130111403A1 (en) * 2011-10-28 2013-05-02 Denso Corporation In-vehicle display apparatus

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005156257A (ja) * 2003-11-21 2005-06-16 Calsonic Kansei Corp 車両用入力装置
US8161404B2 (en) * 2004-08-26 2012-04-17 Harman Becker Automotive Systems Gmbh Vehicle multimedia system
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2008040596A (ja) * 2006-08-02 2008-02-21 Mazda Motor Corp 車両用情報表示装置
US8432372B2 (en) * 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US8266550B1 (en) * 2008-05-28 2012-09-11 Google Inc. Parallax panning of mobile device desktop
JP2010127784A (ja) * 2008-11-27 2010-06-10 Pioneer Electronic Corp 表示装置、表示方法、表示プログラムおよび記録媒体
JP5511682B2 (ja) * 2008-12-04 2014-06-04 三菱電機株式会社 表示入力装置及びナビゲーションシステム
JP5702540B2 (ja) 2010-02-18 2015-04-15 ローム株式会社 タッチパネル入力装置
WO2012128361A1 (ja) * 2011-03-23 2012-09-27 京セラ株式会社 電子機器、操作制御方法および操作制御プログラム
US9619139B2 (en) * 2011-10-03 2017-04-11 Kyocera Corporation Device, method, and storage medium storing program
US20130154959A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
US9141259B2 (en) * 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110096033A1 (en) * 2009-10-26 2011-04-28 Lg Electronics Inc. Mobile terminal
JP2011198210A (ja) * 2010-03-23 2011-10-06 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US20110291985A1 (en) * 2010-05-28 2011-12-01 Takeshi Wakako Information terminal, screen component display method, program, and recording medium
US20130111403A1 (en) * 2011-10-28 2013-05-02 Denso Corporation In-vehicle display apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108536348A (zh) * 2017-03-06 2018-09-14 大众汽车有限公司 用于提供操作界面的方法和操作系统
CN110968048A (zh) * 2018-09-28 2020-04-07 本田技研工业株式会社 智能体装置、智能体控制方法以及存储介质
CN111651108A (zh) * 2019-11-05 2020-09-11 摩登汽车有限公司 终端显示屏Dock栏的控制系统、方法及汽车
CN111651108B (zh) * 2019-11-05 2022-03-18 摩登汽车有限公司 终端显示屏Dock栏的控制系统、方法及汽车
CN117962742A (zh) * 2024-03-29 2024-05-03 长城汽车股份有限公司 车辆组件的控制方法、装置和车辆

Also Published As

Publication number Publication date
JP6113281B2 (ja) 2017-04-12
EP3018568A4 (en) 2017-04-19
JPWO2015001875A1 (ja) 2017-02-23
US20160004322A1 (en) 2016-01-07
EP3018568A1 (en) 2016-05-11
WO2015001875A1 (ja) 2015-01-08
US20180232057A1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
CN105027062A (zh) 信息处理装置
EP3165994B1 (en) Information processing device
CN107107841B (zh) 信息处理装置
JP6315456B2 (ja) タッチパネル式の車両用情報表示装置
US9858702B2 (en) Device and method for signalling a successful gesture input
CN105283356B (zh) 应用程序控制方法以及信息终端
KR101561917B1 (ko) 차량 제어 장치 및 그 제어 방법
KR101611205B1 (ko) 디스플레이 장치, 디스플레이 장치가 설치된 차량 및 디스플레이 장치의 제어 방법
KR101367593B1 (ko) 쌍방향 조작 장치 및 쌍방향 조작 장치의 작동 방법
KR20160083814A (ko) 이동 수단의 부품의 전동식 조절을 위한 스위치의 조작 전에 사용자를 지원하기 위한 장치 및 방법
CN103906646A (zh) 用于尤其在机动车内提供图形用户界面的方法和装置
TW201145146A (en) Handling tactile inputs
CN109177899B (zh) 车载显示装置的交互方法和车载显示装置
US10209832B2 (en) Detecting user interactions with a computing system of a vehicle
CN104281406A (zh) 用于管理信息娱乐功能的方法和系统
WO2016038675A1 (ja) 触感制御システムおよび触感制御方法
EP3202623A1 (en) Vehicle and steering unit
KR20180001985A (ko) 전자 장치 및 그의 동작 방법
JP2019175449A (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
US20180253200A1 (en) Electronic apparatus
US9971475B2 (en) Electronic apparatus
WO2017214732A1 (en) Remote control by way of sequences of keyboard codes
WO2015083267A1 (ja) 表示制御装置及び表示制御方法
JP6390380B2 (ja) 表示操作装置
US20150205519A1 (en) System and method for converting between avn system modes

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20151104

RJ01 Rejection of invention patent application after publication