CN101331036B - 移动体用输入装置及方法 - Google Patents

移动体用输入装置及方法 Download PDF

Info

Publication number
CN101331036B
CN101331036B CN2006800469056A CN200680046905A CN101331036B CN 101331036 B CN101331036 B CN 101331036B CN 2006800469056 A CN2006800469056 A CN 2006800469056A CN 200680046905 A CN200680046905 A CN 200680046905A CN 101331036 B CN101331036 B CN 101331036B
Authority
CN
China
Prior art keywords
project
mentioned
displaying contents
voice
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2006800469056A
Other languages
English (en)
Other versions
CN101331036A (zh
Inventor
平井卓哉
山下敦士
寺田智裕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Automotive Electronic Systems Co ltd
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of CN101331036A publication Critical patent/CN101331036A/zh
Application granted granted Critical
Publication of CN101331036B publication Critical patent/CN101331036B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3611Destination input or retrieval using character input or menus, e.g. menus of POIs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/195Blocking or enabling display functions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供在操作车辆导航装置等设备时,不管是行驶中还是停车中都能够安全地进行输入操作的移动体用输入装置。具备:输入部(100),接受手动操作及语音的输入;行驶状态判断部(600),判断移动体的行驶状态;项目可否执行判断部(800),在由行驶状态判断部(600)判断的行驶状态下,判断输入部接受的输入是否为能够通过手动操作及语音分别执行的项目;显示内容制作部(1000),根据项目可否执行判断部(800)的判断,制作能够区分手动操作及语音的项目操作的可否执行的显示形态;以及显示部(400),显示由显示内容制作部(1000)制作的显示形态。

Description

移动体用输入装置及方法 
技术领域
本发明涉及设置在移动体上的设备的输入操作,更确切为,涉及用户通过选择菜单的各项目,执行规定的动作的移动体用输入装置及方法。 
背景技术
设置在移动体上的设备,尤其是从驾驶的安全性方面考虑,有时根据行驶中或停车中情况的不同限制操作项目。例如搭载于车辆的车辆导航装置,由于不仅具有将本车引导到目的地的导航功能,还发展到重现使用了CD、DVD、HDD等各种媒体的音乐文件等的多功能化,因此各种各样的功能集成到一台设备中。 
这些功能的菜单一般是分层显示,由于其多功能性,菜单的层次也越来越深、越来越复杂。用户用遥控器或触摸屏等输入部按图18所示的显示边按下各按钮边循着菜单分层操作设备为一个例子。在驾驶中进行该操作会分散方向盘操作的注意力等,从安全性方面考虑,只能使用一部分功能。 
[0004如图19所示那样,通过暗淡显示按钮将不能操作的情况提示给用户,限制几乎所有的功能,即使输入功能也不能执行。例如,在因为红灯信号而停车的状态下找寻菜单分层的情况下,当变成绿灯信号而行驶车辆时,直到下一次停车时为止不能继续输入。并且,由于车辆导航这种设备的特征,存在当判断为行驶中时结束菜单操作画面,然后切换到了地图画面,在下一次停车时,从最初开始请求菜单操作的情况。 
现有的移动体用输入装置具有这样的装置:当在找寻菜单分层的过程中行驶判断部判断为行驶中时,通过进行规定的操作,当判断自身车辆为某一确定的速度时能够保留上次操作的履历,并且接着上次菜单操作继续进行输入(参照例如专利文献1)。此外还有具备能够在行驶中操作设备的语音输入部的装置。这种装置为用户说出登记在语音识别用词典中的专用指令,通过这样执行功能的装置。通过使用这种方法用户手不用离开方向盘,能够安全地操作。但是,语音识别用的专用指令达数百条,用户全部记住是不可能的,每次翻开使用说明书查找专用指令也不现实。并且,虽然可以通过显示语音识别用帮助画面来显示使用户知道一部分专用指令, 但不一定是能够执行用户所希望的功能的指令。而且,还有使用遥控器或触摸屏等找寻菜单分层,在最终执行指令时将语音识别用的专用指令的名称告知用户,通过这样达到促进语音输入的利用的技术(参照例如专利文献2)。 
上述专利文献1中有通过提示在上次停车时操作过的菜单的上一级分层,在下一次停车时能够继续进行找寻菜单分层这样的操作的装置,但只要不是判断为减速到某一确定速度的行驶中,在该行驶过程中就不能输入继续进行上次停车时的操作。即,基本上不能在行驶中进行输入操作,没有根本解决问题。并且,上述专利文献2使用遥控器、触摸屏等找寻菜单分层,在执行指令时将语音识别用的专用指令的名称告知用户,通过这样达到促进使用的目的。但是,用户虽然能够记忆经常使用、数量少的指令,但存在难以记忆用户想要执行的全部指令、并且查找用户想要知道的语音识别用的专用指令麻烦这样的问题。 
专利文献1:日本特开2005-49110号公报 
专利文献2:日本特开2001-216129号公报 
发明内容
本发明就是鉴于上述问题。即,目的是要提供一种不用区分是行驶中还是停车中、能够安全地找寻菜单分层,能够简单地操作设备的移动体用输入装置。 
本发明的第1个方面为一种移动体用输入装置。具备:输入部,接受手动操作及语音的输入;行驶状态判断部,判断移动体的行驶状态;项目可否执行判断部,在由行驶状态判断部判断的行驶状态下,判断表示由输入部接受的输入所操作的功能的各个项目是否能够由手动操作执行和是否能够利用语音执行;显示内容制作部,根据项目可否执行判断部的判断,制作能够区分手动操作及语音的项目操作的可否执行的显示形态;以及显示部,显示由显示内容制作部制作的显示形态。 
并且,最好还具备还具备执行项目决定部,该执行项目决定部决定可否执行输入部接受的输入,显示内容制作部根据由上述执行项目决定部决定的内容,制作上述输入部的输入操作的操作结果,显示部显示由显示内容制作部制作的上述操作结果。 
最好是当项目在功能上不能执行时,项目可否执行判断部判断为不管 是手动操作还是语音输入都不能执行。 
显示内容制作部最好是制作能够区分只能用语音操作的项目以及能够手动操作和用语音操作的项目的显示形态。 
显示内容制作部最好是将项目能够通过语音操作而执行的情况以强调项目的文字部分的显示形态制作显示内容。 
显示内容制作部最好是将能够通过手动操作、语音操作执行项目的情况使用各操作的象征符号制作显示内容。 
并且,显示内容制作部最好是制作能够区分项目只能用语音操作的情况、能够手动操作和用语音操作的情况以及既不能手动操作也不能用语音操作的情况的显示形态。 
显示内容制作部最好是制作下述显示形态:在手动操作和语音操作两方都能选择项目的情况下立体地显示项目,在只能语音操作选择项目的情况下二维显示项目,在手动操作和语音操作两方都不能选择项目的情况下暗淡并且二维地显示项目。 
上述显示内容制作部最好是以下述显示形态进行制作,该形态为:在通过手动操作选择了只能用语音操作进行选择的可选项目的情况下,强调显示表示项目只能用语音操作的显示内容。 
显示内容制作部最好是以下述显示形态进行制作,该形态为:通过强调显示项目的项目名称或者弹出显示说话的词语或项目名称,显示上述项目只能通过语音操作的情况。 
在不能用语音操作选择项目的情况下,执行项目决定部最好将语音操作用词典内的与上述项目相对应的词语成为语音识别处理的检索对象之外。 
显示内容制作部最好是制作将语音操作中使用过的词语和/或由手动操作选择过的项目的词语作为履历而显示的显示内容。 
本发明的第2个方面为一种移动体用输入方法。包括以下步骤:输入步骤,接受手动操作及语音的输入;行驶状态判断步骤,判断移动体的行驶状态;项目可否执行判断步骤,在由行驶状态判断步骤判断的行驶状态下,判断表示由输入步骤接受的输入所操作的功能的各个项目是否能够由手动操作执行和是否能够利用语音执行;显示内容制作步骤,根据项目可否执行判断步骤的判断,制作将各项目的显示形态能够区分为是否能够手动操作和是否能够用语音执行项目操作的显示形态;以及显示步骤,显示 由显示内容制作步骤制作的显示形态。 
如上所述,如果采用本发明的各个方面,通过不管是行驶中还是停车中都预先向用户提示能够操作的项目是语音操作还是手动操作,通过这样能够提供知道当前状况下能够操作的项目和操作方法是什么、不用区分语音操作和手动操作就能够进行输入操作的移动体用输入装置。 
图1表示本发明的实施方式的结构的方框图。 
附图说明
图2表示判断菜单内的项目可否操作的流程的流程图。 
图3表示本发明的实施方式的加入了输入部时的结构的方框图。 
图4表示本发明的实施方式的没有加入输入部时的结构的方框图。 
图5a表示手动操作选择了项目时项目可否执行的动作的流程图。 
图5b表示通过语音操作选择了项目时项目可否执行的动作的流程图。 
图5c表示项目不能通过语音操作执行时首先从语音识别用词典中删除与项目有关的词语的处理的动作流程图。 
图6表示项目不能执行时的显示内容的一例的图。 
图7表示手动操作选择了只能通过语音操作选择的项目时的一例的图。 
图8表示手动操作选择了只能通过语音操作选择的项目时的一例的图。 
图9a表示语音输入前的画面显示的图。 
图9b表示用语音操作选择了项目时强调显示项目的一例的图。 
图10表示通过语音操作显示出说话的词语时的一例的图。 
图11表示通过语音操作显示出说话的词语时的一例的图。 
图12表示能够通过语音操作选择的项目的显示内容的一例的图。 
图13表示项目是能够通过语音操作选择和能够手动操作选择的显示内容的一例的图。 
图14表示项目能够通过语音操作选择、项目不能通过手动操作选择、项目不能通过语音和手动选择时的显示内容的一例的图。 
图15表示项目能够通过语音操作选择、项目不能够通过手动操作选择、项目不能够通过语音和手动选择时的显示内容的一例的图。 
图16表示项目能够通过语音操作选择、项目不能够通过手动操作选 择、项目不能够通过语音和手动选择时的显示内容的一例的图。 
图17表示通过语音操作选择项目的结构的方框图。 
图18表示现有的停车中的显示内容的一例的图。 
图19表示现有的行驶中的显示内容的一例的图。 
符号说明 
100 输入部 
200 行驶状态获取部 
300 控制部 
400 显示部 
500 执行部 
600 行驶状态判断部 
700 功能逻辑判断部 
800 项目可否执行判断部 
900 执行项目决定部 
910 语音识别部 
911 说话词语决定部 
912 词典存储部 
920 说话词语及项目间关联提取部 
921 说话词语及项目决定部 
922 说话词语及项目间关联度存储部 
1000 显示内容制作部 
1001 语音操作和手动操作都能执行的项目 
1002、1003、1004、1005 只能用语音操作的项目 
1006 手动操作和语音操作两方都不能执行的项目 
1010 说话词语显示部 
1030 不能用语音操作和手动操作的执行的项目 
1031 表示不能执行项目的弹出显示 
1033 只能用语音操作的项目 
具体实施方式
下面参照附图说明本发明的实施方式的移动体用输入装置。另外,在各附图中,考虑到可视性,割爱了本发明的实施中不是特别重要的要素。 
图1为表示本发明的移动体用输入装置的大致结构的方框图。本输入装置由输入部100、行驶状态获取部200、控制部300、显示部400和执行部500构成。 
输入部100为例如作为行驶中也能够操作的代表例的、接受语音输入操作的麦克风,以及作为行驶中不能操作的代表例的、接受手接触输入操作的触摸屏。另外,虽然本实施方式中手动输入操作假定为特别是输入二维坐标的触摸屏的输入,但也可以是遥控器等的输入。 
行驶状态获取部200为用来将搭载了本发明的装置的移动体(本实施方式中为汽车,称为自身车辆)处于行驶状态这一情况输入到控制部300的部件。作为其方法,既可以输入车速脉冲信息,也可以输入GPS信号。并且,为了告知车辆并非停止状态这一情况,也可以输入是否处于拉起手刹的状态或者传动装置是否处于驻车状态的信息。 
显示部400是显示车辆导航或音频等状态的装置,为液晶显示器、有机EL、CRT监视器,显示从投影仪投影来的影像的例如屏幕、上升显示器。 
控制部300由行驶状态判断部600、功能逻辑判断部700、项目可否执行判断部800、执行项目决定部900和显示内容制作部1000构成。下面依次说明每个部的详情。 
行驶状态判断部600通过行驶状态获取部200获取信号,判断自身车辆是否处于行驶状态。在来自行驶状态获取部200的信号为车速脉冲的情况下,以某个基准值为界,如果该车速脉冲在基准值以上,则判断行驶状态为“行驶中”;如果该车速脉冲在基准值以下,则判断行驶状态为“停车中”。将该结果输出给项目可否执行判断部800。 
功能逻辑判断部700进行构成菜单的项目是否为功能上能够执行的项目的判断处理。例如,在车辆导航中,如果没有进行到达目的地的路径导航,则功能逻辑判断部700将“导航终止”这一项目判断为功能上不能执行的状态,将功能逻辑判断标记标示为“不能执行”。对每个项目标示这样的功能逻辑判断标记,输出给项目可否执行判断部800。 
项目可否执行判断部800从行驶状态判断部600获取赋予了行驶状态的项目,从功能逻辑判断部700获取赋予了功能逻辑判断标记的项目。根据这些项目对所有的项目进行赋予表示各项目能够执行还是不能够执行的项目可否执行标记的处理。 
执行项目决定部900获取来自输入部100的信号和从项目可否执行判断部800来的项目可否执行标记,根据这些获取的信息最终判断项目可否执行,将信息输出给执行部500和显示内容制作部1000。 
显示内容制作部1000是制作向用户提示构成菜单的项目可否执行的内容的部件,将制作的内容输出到显示部400。显示内容的制作有根据来自输入部100的信号制作显示内容和不管来自输入部100的信息、根据来自项目可否执行判断部800的信息制作显示内容两种情况。后面将详细叙述。 
下面用图2叙述项目可否执行判断部800处理的流程。首先,项目可否执行判断部800确认从功能逻辑判断部700获取的功能逻辑判断标记(步骤S801)。 
在步骤S801中,如果标记标的是“不能执行”,意味无论什么样的输入项目都不能执行,项目可否执行判断部800对该项目进行将“项目不能执行”这样的标记标在项目可否执行标记上的处理(步骤S812)。另一方面,在步骤S801中,如果从功能逻辑判断部700获取到“能够执行”的标记,则项目可否执行判断部800判断对象项目中是否保持有“行驶强制标记”(步骤S802)。行驶强制标记赋予根据停车中还是行驶中决定项目可否执行的项目。例如,在车辆导航中,由于“回自己家”这一项目用一个键就能够执行,因此不管是行驶中还是停车中都能够执行。这样的项目不赋予行驶强制标记。 
在步骤S802中,如果没有标行驶强制标记,意味无论什么样的输入都能够执行,项目可否执行判断部800对该项目进行将“项目能够执行”这一标记标到项目可否执行标记中的处理(步骤S810)。另一方面,在步骤S802中,如果标有行驶强制标记,则项目可否执行判断部800确认行驶状态(步骤S803)。 
在步骤S803中,项目可否执行判断部800参照从行驶状态判断部600获取的行驶状态,如果是“停车中”,则前进到步骤S810进行处理。另一方面,在步骤S803中项目可否执行判断部800参照从行驶状态判断部600获取的行驶状态,如果行驶状态为“行驶中”,则意味项目仅能够通过语音执行,进行将“项目仅能通过语音执行”这一标记标到项目可否执行标记中的处理(步骤S811)。 
在步骤S810、步骤S811和步骤S812标示了项目可否执行标记后,项目可否执行判断部800判断是否所有的项目都赋予了项目可否执行标记(步骤S820)。 
在步骤S820中,如果判断为没有赋予,则项目可否执行判断部800返回步骤S801进行处理,当判断为赋予了时,结束处理。将该项目可否执行标记输出给执行项目决定部900和显示内容制作部1000。 
这里,为了便于说明本实施方式,将图1分成图3和图4来说明。图3为图1的项目可否执行判断部800不直接输出到显示内容制作部1000时的方框图,是用来说明来自输入部100的输入输入到执行项目决定部900中,显示内容制作部1000主要用来自输入部100的信号制作的显示内容的图。图4为删除了图1的输入部100、执行项目决定部900和执行部500的图,是用来说明显示内容制作部1000制作的、与来自输入部100的信号无关的显示内容的方框图。 
首先说明图3。执行项目决定部900获取来自输入部100的信号和从项目可否执行判断部800来的项目可否执行标记。并且,如果来自输入部100的信号是手动操作输入的话,则输入触摸屏上的接触位置的坐标,如果是用语音操作输入的话,则输入语音信号。本实施方式假定触摸屏为手动操作的对象设备,但也可以是遥控器或附属于外围设备的匙孔盖(エスカツシヨン)开关,通过按下这些开关将选择哪个项目作为来自输入部100的输出,移交给执行项目决定部900。根据接收到的信息标示最终项目可否执行标记,将该信息输出给执行部500,将项目可否执行判断标记和选择的项目的信息输出给显示内容制作部1000。 
下面用图5a说明来自输入部100的输入为手动操作时,执行项目决定部900的处理流程。 
执行项目决定部900从在步骤S901a输入的接触位置的坐标中提取与接触位置坐标相对应的项目。在步骤S902a中执行项目决定部900对提取的项目判断是3种项目可否执行标记(“项目能够执行”、“项目不能执行”、“项目只能用语音执行”)中的哪一种标记。在提取的项目中标示“项目不能执行”、“项目只能用语音执行”的标记的情况下,执行项目决定部900不执行该项目。此时,执行项目决定部900将最终项目可否执行标记标示为“项目不能执行”(步骤S904a),结束处理(步骤S905a)。此外,在提取的项目中标示“项目可以执行”这一标记的情况下,执行项目决定部900将最终项目可否执行标记标示为“执行项目”(步骤S903a),结束处理(步骤S905a)。执行部500根据最终项目可否执行标记执行输入部100选择的项目的处理。显示内容制作部1000输入由输入部100选择的项目、其接触位置和项目可否执行标记,制作显示内容,输出到显示部400。 
下面说明显示内容制作部1000中输入了“项目能够执行”作为项目可否执行标记时的情况。此时,由于执行选择的项目,因此明亮显示选择的项目,转变成下一层画面或者转变成用来执行最终功能的画面。所谓最终功能是指位于菜单分层末端的项目,为执行规定的功能的项目。例如,在车辆导航的情况下,当为“目的地”→“周边搜索”→“便利店”→“经过地设定”这样的分层菜单时,“经过地设定”为指令,功能为检索当地周边的便利店作为经过地设定的功能。 
下面说明显示内容制作部1000中输入“项目不能执行”作为项目可否执行标记时的情况。此时,由于选择的项目功能上不能够执行,因此制作将该情况反馈给用户的显示内容。这里,参照图6。例如,当没有进行路线导航时,选择“导航终止”这一项目1030。此时,由于“项目不能执行”这一标记附加到“导航终止”这一项目1030上,因此使用弹出1031(制作新的显示区域,在其中显示唤起注意等内容)反馈进行路线导航时使用的情况。另外,在输入待机状态等CPU处理中、任何输入都暂时不接受的状态时,也同样将该情况反馈显示给用户。由此,用户注意到选择了错误的项目或者处于输入待机状态。并且,此时也可以考虑接触位置制作从选择的项目弹出的显示形状,明亮显示选择的项目。而且,也可以改变灰度或色调、字形、文字的大小,强调显示选择的项目1030。 
下面说明项目可否执行标示为“只能通过语音操作执行”时的情况。此时,由于只能接受通过语音操作的输入,因此项目不能执行。即,如果是语音输入则项目能够执行,因此制作将该情况反馈给用户的显示内容。下面参照图7进一步说明。例如,用户为了在行驶中设定经过地,选择“经过地”这一项目1033。此时,由于“经过地”这一项目1033只能接受语音操作的输入,因此用弹出1034表达禁止手动操作,敦促用语音输入。此时传递语音输入说出的词语。由此,用户明白怎样用语音输入项目,简单地切换到语音操作。并且,通过仅增大说出的词语部分的字形、或者用尖括号将说出的词语括起来,使说出的词语不被埋在其他文字串中,能够视认性良好地仅注意到说出的词语。并且,通过考虑接触位置制作从选择的项目弹出那样的显示形状,能够再确认用户选择了哪个项目。图8所示的例子为不是弹出而是强调显示选择的项目1035自身的例子。制作并显示表示选择的项目只接受说话输入的情况的图标1021。由此,由于不显示说出的词语以外的文字串,因此不用使驾驶中的用户阅读大量的文字,能够安全地操作,并且通过显示图标,能够将只能够选择说话输入的项目的情况反馈给用户。 
并且,能够使将“经过地”这样的文字串记载到项目1035中的文字串的颜色与项目的颜色明显不同,阅读变得容易。 
下面用图5b说明来自输入部100的输入通过语音操作时执行项目决定部900的处理的基本处理流程。执行项目决定部900对在步骤S901b中输入的说话词语进行语音识别处理,或者进行相对于预先准备的词典内的哪个词语的处理。其中语音识别处理使用当前普遍流行的使用了概率统计模型的隐马尔可夫模型(HMM)语音识别技术等。并且,语音识别处理也可以使用识别多个说话词语、通过区分它们使语音识别能够连续地进行的连续语音识别处理。该连续识别处理技术使用已经众所周知的技术。接着,执行项目决定部900提取该说话词语是指哪个项目(步骤S902b)。 
下面用表示了步骤S901b的语音识别处理和步骤S902b的项目提取部分的方框图的图17更详细地说明。语音识别部910获取从输入部100来的说话词语。获得的说话词语转交给说话词语决定部911,与存储在词典存储部912内的词语进行匹配,将最符合的词语输出到说话词语和项目间关联提取部920。接着,说话词语和项目决定部921参照说话词语和项目间关联度存储部922决定输入的说话词语与哪个项目对应,决定说话词语所指的项目,结束处理。提取该项目后,参照该项目的项目可否执行标记,如果是“项目能够执行”或“项目仅能用语音执行”,则将最终项目可否执行标记标示为“项目执行”;如果“项目不能执行”则将最终项目可否执行标记标示为“项目不能执行”,结束处理。执行部500根据从执行项目决定部900选择的项目的最终项目可否执行标记进行执行处理。 
下面用图9详细说明项目可否执行标记为“项目能够执行”和“项目仅能用语音执行”时画面显示的情况。显示内容制作部1000获取选择的项目和项目可否执行标记,制作显示内容,将制作的内容输出给显示部400。图9a为语音输入前的画面显示。预先设置了将说话的词语作为文字显示的说话词语显示部1010。当用户说话时,将语音识别处理的结果显示在说话词语显示部1010中。其中,说“周边设置”时的情况表示在图9b中。此时,说话词语显示部1010中显示“周边设置”,转变成下一幅画面。另外,也可以在转变成下一幅画面时首次在说话词语显示部1010中显示“周边设置”。并且,也可以像图9b所示那样在选择了项目时强调显示该项目,向用户提示选择了项目,由此,用户能够确认执行的项目。接着,像图10所示那样画面转变成“周边设施”以下的分层,当接着说出“加油站”,通过 语音识别处理识别到的词语为“加油站”时,说话词语显示部1010中显示“加油站”。此时,也可以像图11所示那样将用户到当时为止说过的话的词语作为履历保留并显示“加油站”。通过保留履历,用户能够确认到当时为止找寻过的分层。由此,当用户在操作途中产生要集中驾驶时,在之后操作的情况下能够顺利地进行继续的操作。 
下面说明项目可否执行标记为“项目不能执行”时的情况。此时,由于功能上项目不能执行,因此与手动操作时一样。 
这里用图4说明从项目可否执行判断部800获取标示了项目可否执行标记的项目作为信息,由显示内容制作部1000制作的显示内容。图12、图13、图14、图15和图16分别为项目可否执行标记为“项目能够执行”、“项目不能执行”、“项目只能用语音执行”的项目都表示了的情况,“自己家”这一项目1001标示了“项目能够执行”的标记,“经过地”、“电话号码”、“周边设施”、“登记地点”这些项目1002、项目1003、项目1004和项目1005标示了“项目只能用语音执行”的标记,“导航终止”这一项目1006标示了“项目不能执行”这一标记。 
图12为用尖括号将项目名称括起来表示能够用语音操作执行的项目即项目1001、1002、1003、1004和1005,使项目名称成暗淡状态表示不能手动操作执行的项目即项目1002、1003、1004和1005时的情况。由于通过用尖括号将项目名称括起来表示能够说话的状态,因此即使不用复杂的表示也能够提示用户为能够用语音输入的状态,并且能够赋予能够通过说话显示的文字串选择项目这样的提示。 
图13为用象征符号1020、1021表示项目能够用语音操作和手动操作执行时的情况。项目不能执行时为表示在象征符号上追加×的象征符号1022、1023的例子。此时,不用改变项目自身的设计,只要追加比项目小的象征符号就可以。此时,与使项目的色调处理暗淡的色调处理时相比,追加×时处理减轻,与另外的暗淡显示的项目相比,比项目小的象征符号小,因此能够减小数据的容量。并且,用户对于追加了×的象征符号容易直观地感觉到输入无效。另外,除了在象征符号上附加×以外,还可以假定不显示象征符号自身或暗淡显示象征符号这样的情况。 
图14为只能用语音操作的项目1002、1003、1004和1005通过暗淡表示不能用手动操作执行的项目的情况,使能够说话的项目名的周边不暗淡表示的例子。由此,由于只有能够说话的项目名不暗淡显示,因此用户容易读项目名,对通过读项目名说话的用户的输入没有任何影响。并且,对 于语音操作和手动操作都不能执行的项目1006通过使项目名暗淡,项目名也不便于读,心理上处于很难说话的状态。 
图15为表示对语音操作和手动操作都能执行的项目1001,只能用语音操作执行的项目1002、1003、1004和1005,以及不能执行的项目1006分别分配固有的颜色时的例子。此时用户的可视性好,能够确认各项目的状态。 
图16中语音操作和手动操作都能执行的项目1001立体地显示项目,只能用语音操作执行的项目1002、1003、1004和1005二维地显示项目,不能执行的项目1006二维地显示并暗淡显示。由此,手动操作不能执行的项目容易明白,并且,项目不能执行的情况也由于暗淡显示,因此更容易明白所有的项目不能执行的情况。另外,也可以将图12至图16表示的例子加以组合显示。 
上述实施方式中说明过的结构仅表示具体例,并非限定本申请的技术范围。在使本申请的效果奏效的范围内可以采用任意结构。 
如上所述,由于本发明的移动体用输入装置能够将能够在行驶中操作的项目或能够在停车中操作的项目预先向用户提示是语音操作或手动操作的项目,因此在尤其是搭载在移动体上、分层结构的菜单的输入操作的设备等有用。 

Claims (13)

1.一种移动体用输入装置,具备:
输入部,接受手动操作及语音的输入;
行驶状态判断部,判断移动体的行驶状态;
项目可否执行判断部,在由上述行驶状态判断部判断的行驶状态下,判断表示由上述输入部接受的输入所操作的功能的各个项目是否能够由手动操作执行和是否能够利用语音执行;
显示内容制作部,根据上述项目可否执行判断部的判断,制作将各项目的显示形态能够区分为是否能够手动操作执行和是否能够用语音执行的显示形态;以及
显示部,以由上述显示内容制作部制作的显示形态显示各个项目。
2.如权利要求1所述的移动体用输入装置,其特征在于,
还具备执行项目决定部,该执行项目决定部决定可否执行上述输入部接受的输入,
上述显示内容制作部根据由上述执行项目决定部决定的内容,制作上述输入部的输入操作的操作结果,
上述显示部显示由上述显示内容制作部制作的上述操作结果。
3.如权利要求1所述的移动体用输入装置,其特征在于,
当项目在功能上不能执行时,上述项目可否执行判断部判断为不管是手动操作还是语音输入都不能执行。
4.如权利要求1所述的移动体用输入装置,其特征在于,
上述显示内容制作部制作能够区分只能用语音操作的项目和能够手动操作及用语音操作的项目的显示形态。
5.如权利要求4所述的移动体用输入装置,其特征在于,
上述显示内容制作部将项目能够通过语音操作而执行的情况以强调上述项目的文字部分的显示形态制作显示内容。
6.如权利要求4所述的移动体用输入装置,其特征在于,
上述显示内容制作部将能够通过手动操作、语音操作执行项目的情况使用各操作的象征符号制作显示内容。
7.如权利要求1所述的移动体用输入装置,其特征在于,
上述显示内容制作部制作能够区分项目只能用语音操作的情况、能够手动操作和用语音操作的情况以及既不能手动操作也不能用语音操作的情况的显示形态。
8.如权利要求7所述的移动体用输入装置,其特征在于,
上述显示内容制作部制作下述显示形态:在手动操作和语音操作两方都能选择项目的情况下立体地显示项目,在只能语音操作选择项目的情况下二维显示项目,在手动操作和语音操作两方都不能选择项目的情况下暗淡并且二维地显示项目。
9.如权利要求1所述的移动体用输入装置,其特征在于,
上述显示内容制作部以下述显示形态进行制作,该形态为:在通过手动操作选择了只能用语音操作进行选择的可选项目的情况下,强调显示表示上述项目只能用语音操作的显示内容。
10.如权利要求9所述的移动体用输入装置,其特征在于,
上述显示内容制作部以下述显示形态进行制作,该形态为:通过强调显示上述项目的项目名称或者弹出显示说话的词语或项目名称,显示上述项目只能通过语音操作的情况。
11.如权利要求2所述的移动体用输入装置,其特征在于,
在不能用语音操作选择项目的情况下,上述执行项目决定部使语音操作用词典内的与上述项目相对应的词语成为语音识别处理的检索对象之外。
12.如权利要求2所述的移动体用输入装置,其特征在于,
上述显示内容制作部制作将语音操作中使用过的词语和/或由手动操作选择过的项目的词语作为履历而显示的显示内容。
13.一种移动体用输入方法,包括以下步骤:
输入步骤,接受手动操作及语音的输入;
行驶状态判断步骤,判断移动体的行驶状态;
项目可否执行判断步骤,在由上述行驶状态判断步骤判断的行驶状态下,判断表示由上述输入步骤接受的输入所操作的功能的各个项目是否能够由手动操作执行和是否能够利用语音执行;
显示内容制作步骤,根据上述项目可否执行判断步骤的判断,制作将各项目的显示形态能够区分为是否能够手动操作执行和是否能够用语音执行项目操作的显示形态;以及
显示步骤,以由上述显示内容制作步骤制作的上述显示形态显示各个项目。
CN2006800469056A 2005-12-16 2006-12-11 移动体用输入装置及方法 Active CN101331036B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005363013 2005-12-16
JP363013/2005 2005-12-16
PCT/JP2006/324692 WO2007069573A1 (ja) 2005-12-16 2006-12-11 移動体用入力装置、及び方法

Publications (2)

Publication Number Publication Date
CN101331036A CN101331036A (zh) 2008-12-24
CN101331036B true CN101331036B (zh) 2011-04-06

Family

ID=38162881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800469056A Active CN101331036B (zh) 2005-12-16 2006-12-11 移动体用输入装置及方法

Country Status (5)

Country Link
US (1) US8280742B2 (zh)
EP (1) EP1961619B1 (zh)
JP (1) JP4805279B2 (zh)
CN (1) CN101331036B (zh)
WO (1) WO2007069573A1 (zh)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2621191C (en) 2005-08-29 2012-12-18 Evryx Technologies, Inc. Interactivity via mobile image recognition
JP4811287B2 (ja) * 2007-01-31 2011-11-09 ブラザー工業株式会社 階層構造表示装置および階層構造表示プログラム
JP5219705B2 (ja) * 2008-09-12 2013-06-26 富士通テン株式会社 情報処理装置および情報処理方法
JP5032424B2 (ja) * 2008-09-16 2012-09-26 本田技研工業株式会社 車両運転支援装置
US8340870B2 (en) * 2008-09-16 2012-12-25 Honda Motor Co., Ltd. Vehicle maneuver assistance device
JP5414688B2 (ja) * 2008-10-20 2014-02-12 三菱電機株式会社 機器利用支援装置及びシステム
JP5463922B2 (ja) * 2010-01-12 2014-04-09 株式会社デンソー 車載機
US9232044B2 (en) * 2010-03-03 2016-01-05 Lg Electronics Inc. Mobile terminal and control method thereof
US20120320082A1 (en) * 2010-03-04 2012-12-20 Panasonic Corporation Information display system, information display device, and information providing device
US9179140B2 (en) 2010-10-19 2015-11-03 Mitsubishi Electric Corporation 3dimension stereoscopic display device
FR2970356B1 (fr) * 2011-01-10 2013-07-26 Bouygues Telecom Sa Procede de regulation de l'acces a un ensemble d'applications et systeme pour la mise en oeuvre de ce procede
US9292112B2 (en) 2011-07-28 2016-03-22 Hewlett-Packard Development Company, L.P. Multimodal interface
EP2555536A1 (en) 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2013022218A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing user interface thereof
DE112011105833B4 (de) * 2011-11-10 2019-07-04 Mitsubishi Electric Corp. Navigationsvorrichtung, Navigationsverfahren und Navigationsprogramm
US20140259030A1 (en) * 2012-01-25 2014-09-11 Mitsubishi Electric Corporation Mobile information device
JP2013256189A (ja) 2012-06-12 2013-12-26 Denso Corp 車載端末
KR102019719B1 (ko) * 2013-01-17 2019-09-09 삼성전자 주식회사 영상처리장치 및 그 제어방법, 영상처리 시스템
US9719797B2 (en) * 2013-03-15 2017-08-01 Apple Inc. Voice and touch user interface
US20140267035A1 (en) * 2013-03-15 2014-09-18 Sirius Xm Connected Vehicle Services Inc. Multimodal User Interface Design
JP6229287B2 (ja) * 2013-04-03 2017-11-15 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10310702B2 (en) * 2013-09-27 2019-06-04 Lg Electronics Inc. Image display apparatus for controlling an object displayed on a screen and method for operating image display apparatus
CN103870160B (zh) * 2014-03-26 2018-03-23 联想(北京)有限公司 一种信息处理方法及电子设备
JP5955486B2 (ja) * 2014-04-22 2016-07-20 三菱電機株式会社 ユーザインターフェースシステム、ユーザインターフェース制御装置、ユーザインターフェース制御方法およびユーザインターフェース制御プログラム
CN105303643A (zh) * 2014-06-08 2016-02-03 苗码信息科技(上海)股份有限公司 汉语文本现场自动导航并驾驶汽车的方法
JP6282549B2 (ja) * 2014-07-18 2018-02-21 アルパイン株式会社 操作メニュー表示制御装置および操作メニュー表示制御方法
JP6432233B2 (ja) * 2014-09-15 2018-12-05 株式会社デンソー 車両用機器制御装置、制御内容検索方法
CN104298429B (zh) * 2014-09-25 2018-05-04 北京搜狗科技发展有限公司 一种基于输入的信息展示方法和输入法系统
US10306047B2 (en) 2015-02-23 2019-05-28 Apple Inc. Mechanism for providing user-programmable button
USD874519S1 (en) 2015-07-13 2020-02-04 Solidus Ventures Gmbh Display panel or portion thereof with a graphical user interface
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10248119B2 (en) * 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10334050B2 (en) 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
CN108153427B (zh) * 2016-12-02 2021-04-20 上海博泰悦臻电子设备制造有限公司 一种键盘布局方法、系统及一种车机
JP7200664B2 (ja) * 2018-12-26 2023-01-10 日本精機株式会社 車両用計器
JP7275795B2 (ja) * 2019-04-15 2023-05-18 コニカミノルタ株式会社 操作受付装置、制御方法、画像形成システム、及び、プログラム
JP7377043B2 (ja) * 2019-09-26 2023-11-09 Go株式会社 操作受付装置及びプログラム
JP7152043B2 (ja) * 2020-09-08 2022-10-12 株式会社ユピテル 装置及びプログラム
US11740864B2 (en) * 2020-09-30 2023-08-29 Honeywell International Inc. Method and systems for providing contextual visual and aural feedback and awareness to flight crews using a voice activated flight deck
US20220415321A1 (en) * 2021-06-25 2022-12-29 Samsung Electronics Co., Ltd. Electronic device mounted in vehicle, and method of operating the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1440017A (zh) * 2002-02-21 2003-09-03 丰田自动车株式会社 显示装置、便携式终端、数据显示系统和该系统的控制方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5266922A (en) * 1991-03-21 1993-11-30 Sony Electronics, Inc. Mobile communication apparatus
EP0660083B1 (en) * 1993-12-27 2000-09-27 Aisin Aw Co., Ltd. Vehicular information display system
JPH07230465A (ja) 1994-02-15 1995-08-29 Kano Densan Hongkong Yugenkoshi 電子辞書
JPH07319383A (ja) * 1994-05-25 1995-12-08 Sony Corp 地図表示装置
JP3363283B2 (ja) * 1995-03-23 2003-01-08 株式会社日立製作所 入力装置、入力方法、情報処理システムおよび入力情報の管理方法
JPH0916891A (ja) * 1995-07-03 1997-01-17 Aqueous Res:Kk 車載用情報入力装置
JPH1089982A (ja) 1996-09-17 1998-04-10 Mazda Motor Corp ナビゲーション装置
US6009355A (en) * 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
US6535615B1 (en) * 1999-03-31 2003-03-18 Acuson Corp. Method and system for facilitating interaction between image and non-image sections displayed on an image review station such as an ultrasound image review station
JP2000346651A (ja) * 1999-06-07 2000-12-15 Tokai Rika Co Ltd ディスプレイシステム
JP2000352993A (ja) * 1999-06-14 2000-12-19 Oki Electric Ind Co Ltd 音声認識システム及びヒドン・マルコフ・モデルの学習方法
JP2001216129A (ja) 2000-02-02 2001-08-10 Denso Corp コマンド入力装置
GB0029573D0 (en) * 2000-12-02 2001-01-17 Hewlett Packard Co Activation of voice-controlled apparatus
US6415224B1 (en) * 2001-02-06 2002-07-02 Alpine Electronics, Inc. Display method and apparatus for navigation system
US6353778B1 (en) * 2001-03-15 2002-03-05 International Business Machines Corporation Automobile computer control system for limiting the usage of wireless telephones on moving automobiles
US20020141600A1 (en) * 2001-03-29 2002-10-03 Eastman Kodak Company System for controlling information received in a moving vehicle
US6717287B2 (en) * 2001-05-22 2004-04-06 Visteon Global Technologies, Inc. Input/output device for mounting in vehicle
US6904362B2 (en) * 2001-08-09 2005-06-07 Aisin Aw Co., Ltd. Route guidance system, information delivery center, and vehicular route guidance apparatus
US6791529B2 (en) * 2001-12-13 2004-09-14 Koninklijke Philips Electronics N.V. UI with graphics-assisted voice control system
US6897861B2 (en) * 2002-01-09 2005-05-24 Nissan Motor Co., Ltd. Map image display device, map image display method and map image display program
CN100342214C (zh) 2002-03-15 2007-10-10 三菱电机株式会社 车辆用导航装置
JP4225029B2 (ja) * 2002-10-18 2009-02-18 日産自動車株式会社 地図画像表示装置及び地図画像表示プログラム
US6845317B2 (en) * 2002-11-04 2005-01-18 Dean A. Craine Navigational-based speed limit recording and warning system
US6941224B2 (en) * 2002-11-07 2005-09-06 Denso Corporation Method and apparatus for recording voice and location information
US7461352B2 (en) * 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
JP2005049110A (ja) 2003-07-29 2005-02-24 Hcx:Kk ナビゲーション装置
JP4237026B2 (ja) 2003-10-20 2009-03-11 アルパイン株式会社 車載用ナビゲーション装置およびその装置への入力方法
DE60321348D1 (de) * 2003-10-29 2008-07-10 Harman Becker Automotive Sys Navigationssystem mit verbesserter Sprachausgabekontrolle
JP2005208798A (ja) * 2004-01-21 2005-08-04 Nissan Motor Co Ltd 情報提供端末、および情報提供方法
JP2005335554A (ja) 2004-05-27 2005-12-08 Nissan Motor Co Ltd 車載機器制御装置
US20060041345A1 (en) * 2004-08-09 2006-02-23 Darrell Metcalf System for safely disabling and re-enabling the manual vehicle control input of aircraft and other vehicles
US7295904B2 (en) * 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US7519469B2 (en) * 2005-04-28 2009-04-14 Alpine Electronics, Inc. Display method and apparatus for navigation system
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
JP2007040971A (ja) * 2005-07-08 2007-02-15 Nissan Motor Co Ltd 画面表示装置および画面表示方法
US8532678B2 (en) * 2006-03-08 2013-09-10 Tomtom International B.V. Portable GPS navigation device
US8370755B2 (en) * 2007-12-27 2013-02-05 Core Wireless Licensing S.A.R.L. User interface controlled by environmental cues

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1440017A (zh) * 2002-02-21 2003-09-03 丰田自动车株式会社 显示装置、便携式终端、数据显示系统和该系统的控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP特开2005-335554A 2005.12.08
JP特开平9-16891A 1997.01.17

Also Published As

Publication number Publication date
US20100153111A1 (en) 2010-06-17
WO2007069573A1 (ja) 2007-06-21
EP1961619A1 (en) 2008-08-27
JP4805279B2 (ja) 2011-11-02
US8280742B2 (en) 2012-10-02
EP1961619A4 (en) 2010-12-01
CN101331036A (zh) 2008-12-24
EP1961619B1 (en) 2012-03-14
JPWO2007069573A1 (ja) 2009-05-21

Similar Documents

Publication Publication Date Title
CN101331036B (zh) 移动体用输入装置及方法
EP2728313B1 (en) Method of displaying objects on a navigation map
US7617108B2 (en) Vehicle mounted control apparatus
KR101300435B1 (ko) 관심 위치 저장 및 시각화 기능을 갖는 내비게이션 시스템
US20030014261A1 (en) Information input method and apparatus
WO2003078930A1 (fr) Dispositif de navigation a bord d'un vehicule
CN109874108A (zh) 基于寻车系统的寻车方法及寻车系统、移动终端
US20130311417A1 (en) Operating device for in-vehicle information equipment
EP2209072A1 (en) Information retrieval device
CN101680764A (zh) 信息处理装置
JP2008196998A (ja) ナビゲーション装置
CN105103087B (zh) 一种用于显示和/或输出帮助的方法和配置给车辆的装置
CN101033977B (zh) 导航仪的语音导航方法
JP4084628B2 (ja) ナビゲーション装置
JP2001216129A (ja) コマンド入力装置
JP4258890B2 (ja) 音声認識装置、その装置を用いたナビゲーションシステム
JP2007047882A (ja) 情報検索装置
JP2006178898A (ja) 地点検索装置
JP5906615B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
JP4167405B2 (ja) ナビゲーション装置
EP1895508B1 (en) Speech recognizing device, information processing device, speech recognizing method, program, and recording medium
JP3700533B2 (ja) 音声認識装置及び処理システム
JP2008164809A (ja) 音声認識装置
JP2004020883A (ja) 音声認識装置及びナビゲーション装置
JP2005215474A (ja) 音声認識装置、プログラム、記憶媒体及びナビゲーション装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP03 Change of name, title or address

Address after: Osaka, Japan

Patentee after: Panasonic Holding Co.,Ltd.

Country or region after: Ri Ben

Address before: Osaka, Japan

Patentee before: Matsushita Electric Industrial Co.,Ltd.

Country or region before: Ri Ben

CP03 Change of name, title or address
TR01 Transfer of patent right

Effective date of registration: 20240321

Address after: Kanagawa, Japan

Patentee after: Panasonic Automotive Electronic Systems Co.,Ltd.

Country or region after: Ri Ben

Address before: Osaka, Japan

Patentee before: Panasonic Holding Co.,Ltd.

Country or region before: Ri Ben

TR01 Transfer of patent right