CN108108107A - 显示系统 - Google Patents

显示系统 Download PDF

Info

Publication number
CN108108107A
CN108108107A CN201711012817.0A CN201711012817A CN108108107A CN 108108107 A CN108108107 A CN 108108107A CN 201711012817 A CN201711012817 A CN 201711012817A CN 108108107 A CN108108107 A CN 108108107A
Authority
CN
China
Prior art keywords
picture
ecu
cursor
control unit
electronic control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711012817.0A
Other languages
English (en)
Other versions
CN108108107B (zh
Inventor
村上国广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN108108107A publication Critical patent/CN108108107A/zh
Application granted granted Critical
Publication of CN108108107B publication Critical patent/CN108108107B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种显示系统,包括:显示器;操作设备;以及包括第一ECU和第二ECU的多个ECU。第一ECU被配置成使用第一设置信息和第二设置信息,其中,在第一设置信息中设置光标在从第一ECU输出的画面上的控制形式,在第二设置信息中设置光标在从第二ECU输出的画面上的控制形式。在第一ECU正在输出画面的同时,第一ECU被配置成基于第一设置信息和从操作设备输出的操作信息来控制光标的显示,并且在第二ECU正在输出画面的同时,第一ECU被配置成基于第二设置信息和从操作设备输出的操作信息来控制光标的显示。

Description

显示系统
技术领域
本发明涉及控制设备各自输出画面的显示系统。
背景技术
已知通过操作触摸板来控制光标在画面上的显示的信息处理装置。在作为由信息处理装置执行的控制的示例的选择控制中,当检测到手指在触摸板的操作表面上的触摸时,确定与触摸位置相关联的选择项作为光标的显示位置。此时,可以以向接近触摸位置的选择项施加拉拽力这样的形式来确定光标的显示位置。在作为由信息处理装置执行的控制的另一示例的相对位置控制中,基于到以手指触摸的操作表面上的位置的移动距离等来控制光标的显示,而不管以手指触摸的触摸板的操作表面上的绝对位置(例如参见WO 2013/088559)。
发明内容
在控制设备各自向显示设备输出画面的显示系统中,由各个控制设备执行对光标的显示(例如光标的位置或光标的运动)的控制。然后,在一个光标的显示在多个控制设备中被分别控制的情况下,在作为操作的对象的画面转换时,发生光标未立即显示的事件、瞬间显示多个光标的事件等,并且存在以下可能性,用户相对于光标的显示接收到与操作不同的印象。
本发明提供了一种控制设备各自输出画面的显示系统,其具有抑制关于光标的显示的不适感的优点。
本发明的一方面涉及显示系统,其包括显示设备、操作设备以及多个电子控制单元。显示设备被配置成显示画面。操作设备被配置成输出操作信息,该操作信息是与光标的操作有关的信息。电子控制单元连接至通信网络。电子控制单元被配置成各自输出在显示设备上显示的画面。电子控制单元包括第一电子控制单元和第二电子控制单元。第一电子控制单元被配置成使用第一设置信息和第二设置信息,在第一设置信息中设置了光标在从第一电子控制单元输出的画面上的控制形式,在第二设置信息中设置了光标在从第二电子控制单元输出的画面上的控制形式,并且第一电子控制单元被配置成在第一电子控制单元正在输出画面的同时基于第一设置信息和从操作设备输出的操作信息来控制光标的显示,并且第一电子控制单元被配置成在第二电子控制单元正在输出画面的同时基于第二设置信息和从操作设备输出的操作信息来控制光标的显示。
根据本发明的该方面,在第一电子控制单元正在输出画面的同时并且在第二电子控制单元正在输出画面的同时,第一电子控制单元基于操作信息来控制光标的显示。此时,第一电子控制单元基于设置了光标在每个输出画面上的控制形式的设置信息来执行对光标的控制。由此,可以抑制由于画面的输出源的转变而产生的关于光标的显示的不适感。
在根据本发明的该方面的显示系统中,第二电子控制单元可以被配置成随着从第二电子控制单元输出的画面的改变而将其中设置了光标在改变后的画面上的控制形式的信息作为第二设置信息发送至第一电子控制单元。第一电子控制单元可以被配置成使用从第二电子控制单元接收的第二设置信息来控制光标的显示。
根据本发明的该方面,即使在光标的控制形式连同从第二电子控制单元输出的画面一起改变的情况下,也可以使用适合于改变后的画面的光标的控制形式来控制光标的显示。
在根据本发明的该方面的显示系统中,要在显示设备上显示的单个画面可以包括从第一电子控制单元输出的画面和从第二电子控制单元输出的画面二者。在一次显示与转变有关的多个画面的情况下,用户视觉上识别上述事件并且可能感觉到不适感。根据本发明的该方面,因为抑制了在这样的情况下的不适感,所以更显著地获得上述效果。
在根据本发明的该方面的显示系统中,第二电子控制单元可以被配置成通过第一电子控制单元来向显示设备输出画面。第一电子控制单元可以被配置成将从第二电子控制单元输出的画面和从第一电子控制单元输出的画面的所组合的画面作为要在显示设备上显示的单个画面发送至显示设备。第一电子控制单元可以被配置成:通过基于操作信息来指定光标相对于在显示设备上显示的画面的相对位置并且将光标移动至所指定的相对位置来控制光标的显示。
根据本发明的该方面,第一电子控制单元确定在显示设备上显示的单个画面,以及第一电子控制单元执行用于指定光标相对于在显示设备上显示的单个画面的相对位置的处理以及用于将光标移动至指定的相对位置的处理。为此,相比于在各个电子控制单元中实现光标的移动的配置,可以进一步抑制关于光标的移动(例如光标在画面之间的移动)的不适感。
在根据本发明的该方面的显示系统中,第一电子控制单元可以被配置成基于操作信息来指定操作类型,并且使得在第一电子控制单元和第二电子控制单元中的输出画面(其上显示光标)的电子控制单元执行光标的对应于所指定的操作类型的显示。
根据本发明的该方面,通过第一电子控制单元和第二电子控制单元中的输出画面(其上显示光标)的电子控制单元来实现以下功能:使得定位在相对位置处的光标的显示对应于操作类型被显示。为此,可以向电子控制单元分配执行对应于操作类型的显示的负荷。
在根据本发明的该方面的显示系统中,操作设备可以是触摸板。操作类型可以包括轻击、双击、轻拂、缩小和放大。
在根据本发明的该方面的显示系统中,操作设备可以是基于使用触摸面板的操作来输入信息的设备。操作类型可以包括轻击和轻拂。
在根据本发明的该方面的显示系统中,操作设备可以是基于使用鼠标的操作来输入信息的设备。操作类型可以包括点击、双击以及滚轮操作。
在根据本发明的该方面的显示系统中,操作设备可以是基于使用视线的操作来输入信息的设备。操作类型可以包括眼睛的运动、眨眼和眨眼次数。
附图说明
下面将参照附图来描述本发明的示例性实施方式的特征、优点以及技术和工业意义,在附图中,相同的附图标记指示相同的元件,并且其中:
图1是示出实施显示系统的实施方式的示意性配置的框图;
图2A是示意性地示出通过显示设备的画面显示的示例的图,而且是示出显示两个画面的状态的图;
图2B是示意性地示出通过显示设备的画面显示的示例的图,而且是示出显示两个画面的状态的图;
图3是示出示例中的光标控制的示例的顺序图;
图4A是示意性地示出通过显示设备的画面显示的另一示例的图,而且是示出显示两个画面的状态的图;
图4B是示意性地示出通过显示设备的画面显示的另一示例的图,而且是示出显示一个画面的状态的图;以及
图5是示出另一示例中的光标控制的示例的顺序图。
具体实施方式
将参照图1来描述实施显示系统的实施方式。该实施方式的显示系统包括通信系统,该通信系统包括安装在车辆(未示出)中的通信网络。
首先,将参照图1至图5对显示系统的概要进行描述。显示系统中的通信系统包括第一电子控制单元(ECU)40和第二电子控制单元(ECU)50。通信系统包括显示设备20,该显示设备20将包括视频的画面(screen)显示在显示器DP的显示区域中。通信系统还包括远程操作设备30,该远程操作设备30使得驾驶员等能够在显示设备20的显示器进行操作。第一ECU 40和第二ECU 50使显示器DP显示画面。从第一ECU 40和第二ECU 50输出的画面显示在显示器DP的显示区域中。在显示器DP上一次显示的画面包括从第一ECU 40输出的画面和从第二ECU 50输出的画面。
第一ECU 40直接将由第一ECU 40绘制的画面输出至显示设备20。第二ECU 50将由第二ECU 50绘制的画面输出至第一ECU 40,并通过第一ECU 40将画面输出至显示设备20。也就是说,第一ECU 40确定从第一ECU 40输出的画面和从第二ECU 50输出的画面。
第一ECU 40输入从远程操作设备30输出的并且与光标的操作有关的操作信息。从第一ECU 40输入的操作信息与光标在从第一ECU 40输出的画面上的操作和光标在从第二ECU 50输出的画面上的操作有关。然后,第一ECU 40基于从远程操作设备30输入的操作信息来指定操作位置(坐标信息)和操作类型,其中,操作位置是执行操作的位置。第一ECU 40使ECU(其输出要作为操作目标的画面)确定由第一ECU 40指定的操作位置(坐标信息)和操作类型。
也就是说,在对显示设备20上显示的画面上的操作的处理中,首先,在第一ECU 40中指定操作位置和操作类型,并且在第一ECU 40和第二ECU 50中使用指定的操作位置和操作类型。
接下来,将参照图1描述显示系统的细节。显示系统中的通信系统包括用于车载网络的通信总线10。显示设备20、远程操作设备30、第一ECU 40和第二ECU 50可通信地连接至通信总线10。
显示设备20包括显示器DP,该显示器DP在显示区域中显示包括视频的画面。显示设备20将通过通信总线10从第一ECU 40输入的画面显示在显示器DP上。
远程操作设备30包括使得驾驶员等能够在显示设备20的显示器上进行操作的设备,例如,触摸板,并且基于驾驶员等的操作来输入信息。远程操作设备30将基于光标的操作的信息作为操作信息输出至通信总线10。第一ECU 40获取输出至通信总线10的操作信息。远程操作设备30在物理上与显示设备20分离。
远程操作设备30检测在触摸板上执行的操作的位置和操作的类型。远程操作设备30检测在触摸板的操作表面上操作位置的移动。第一ECU40输入检测到的操作位置的移动并计算移动路径。在基于移动路径来移动显示在显示设备20上的光标的位置的情况下,使用由第一ECU 40计算出的移动路径。
远程操作设备30检测在触摸板上执行的操作的类型。检测到的操作类型被输入至第一ECU 40。操作的类型例如是轻击、双击、轻弹,缩小(pinch-in)和放大(pinch-out)。在从第一ECU 40输出的画面上检测到光标在画面上的对应于操作位置的位置情况下,第一ECU 40使得操作类型对应于检测到的位置,并且使得显示设备20执行对应于操作类型的显示。第一ECU 40还向管理操作位置的程序通知操作位置和操作类型。
第一ECU 40通过通信总线10从远程操作设备30接收操作信息。第二ECU 50通过通信总线10从第一ECU 40接收操作信息。操作信息包括从远程操作设备30发送的操作位置和类型操作。第一ECU 40和第二ECU 50绘制显示设备20显示的画面。第一ECU 40通过通信总线10发送画面。第一ECU 40和第二ECU 50使得彼此能够通过通信总线10发送和接收各种通信消息。第一ECU 40和第二ECU 50使得能够与除了该两个ECU 40、50之外的ECU发送和接收各种通信消息。
通信系统采用例如控制器局域网(CAN)协议作为通信协议。通信系统在通信路径的一部分中可以包括无线通信,或者可以包括借助于网关等来穿过另一网络的路径。
在CAN协议中,指定作为通信消息的结构的帧。在CAN协议中指定的帧包括作为指示通信消息的类型的标识符的“消息ID”的存储区域,作为由用户指定的数据的作为“消息数据”的存储区域的“数据字段”,等等。对于每种类型的通信消息,“消息ID”被确定为特定值。第一ECU40和第二ECU 50向从第一ECU 40和第二ECU 50发送的通信消息赋予与通信消息的类型相对应的“消息ID”,发送通信消息,并基于“消息ID”确定由第一ECU 40和第二ECU50接收的通信消息的类型。在通信系统中,可以向通信消息赋予“消息ID”并发送通信消息的ECU是针对每个“消息ID”的一个,并且对于每个“消息ID”是唯一的。作为存储“消息数据”的区域的数据字段具有0位至64位(0字节至8字节)的长度。
第一ECU 40和第二ECU 50中的每一个包括具有运算设备(CPU)和存储设备的微型计算机。第一ECU 40和第二ECU 50中的每一个包括:执行程序的算术运算处理的运算设备;存储程序、数据等的只读存储器(ROM);以及临时存储运算设备的算术运算结果的易失性存储器(RAM)。第一ECU 40和第二ECU 50中的每一个还包括存储和保持设定值或算术运算值的存储设备(例如备份存储器)以及保存数据的闪速存储器。第一ECU 40和第二ECU 50中的每一个将保存在存储设备中的程序读取到在运算设备上,并且执行读取的程序以实现预定的功能。第一ECU 40和第二ECU 50中的每一个还包括存储大量数据例如图像的存储单元。存储单元被配置成执行从绘制单元读取和写入数据。
第一ECU 40和第二ECU 50中的每一个包括用于CAN协议的通信I/F,临时存储通信消息的多个消息盒(MBOX)等。第一ECU 40和第二ECU 50中的每一个通过通信I/F或MBOX执行通信消息的发送和接收。
第一ECU 40和第二ECU 50分别包括绘制单元41、51和SW操作确定单元44、52。当允许包括绘制单元41、51的ECU的显示时,绘制单元41、51绘制画面。由绘制单元41、51绘制的画面是分配给包括绘制单元41、51的ECU的区域,并且被分配给显示设备20的显示区域的一部分。第一ECU 40确定对通过第一ECU 40的显示和通过第二ECU 50的显示的许可。
第二ECU 50将由绘制单元51绘制的画面输出至第一ECU 40。第一ECU 40将由绘制单元41绘制的画面输出至显示设备20。此时,第一ECU40组合从第一ECU 40输出的画面和从第二ECU 50输出的画面,并将画面作为单个画面发送至显示设备20。第一ECU 40确定在显示设备20上针对从第一ECU 40输出的画面和从第二ECU 50输出的画面来显示的区域。也就是说,第一ECU 40确定与从远程操作设备30输入的操作位置对应的画面和画面上的操作位置。
当在画面上操作作为可以聚焦光标的画面上的局部区域的开关(SW)时,SW操作确定单元44、52中的每一个根据SW的操作输出指示响应的动画。SW操作确定单元44、52设置在各个ECU中。然后,在画面上输出对应于操作类型并且特定于每个ECU的动画。
第一ECU 40包括执行光标控制的操作辅助光标控制器42和执行手势确定的手势确定单元43。操作辅助光标控制器42使光标以预定的形式显示。光标指示在显示器DP的显示区域中的操作位置。与在显示设备20上显示的光标的显示有关的信息包括在画面信息中并且被传送。
操作辅助光标控制器42根据正在显示的画面与操作位置之间的关系来控制光标的移动。例如,操作辅助光标控制器42在画面之间提供相同的操作性能,而不管使得画面被显示的ECU,从而统一了画面之间的操作感(感觉)。操作辅助光标控制器42使得光标能够在由第一ECU 40和第二ECU 50分别显示的画面上跨彼此相邻的画面移动。也就是说,操作辅助光标控制器42使得能够实现跨画面的光标控制。
操作辅助光标控制器42包括自由光标控制器421、交叉移动控制器422、指针引入控制器423和手写输入控制器424。
当光标的操作模式是自由光标模式时,自由光标控制器421控制光标的显示。自由光标控制器421执行自由光标控制。自由光标控制是用于移动光标的控制,并且使光标指示画面上任意位置处的操作位置。在自由光标控制下,光标的控制条件在画面内的每个位置处都相同。因此,在自由光标模式的情况下,用户可以在没有操作目标或边界部分的辅助的状态下或者在没有抑制的状态下操作光标。
当光标的操作模式是交叉移动模式时,交叉移动控制器422控制光标的显示。交叉移动控制器422控制光标的位置,使得指示操作目标的焦点确定地紧靠画面内的SW。在交叉移动模式下,在光标的移动方向为向上、向下、向右和向左中之一的情况下,光标移动到在每个移动方向上设置的在操作之前焦点所紧靠的SW的下一SW。在实施方式中,在光标在从不同ECU输出的两个画面之间移动的情况下,第一ECU 40的交叉移动控制器422指定在操作之前焦点紧靠的SW的位置,并且将焦点移动到最接近指定位置的SW并且在另一画面上绘制为移动目的地。
当光标的操作模式是指针引入模式时,指针引入控制器423控制光标的显示。在光标的位置到达SW附近的情况下,指针引入控制器423控制光标的位置,使得光标被引入到SW的中心。在指针引入模式下,执行控制,使得在光标靠近下述画面上的SW的情况下光标被引入到光标的中心:在所述画面中存在通过自由光标的操作在通过ECU显示的画面(例如地图画面)中是可行的部分以及通过SW的操作是可行的部分。每个画面上的至SW的光标引入由第一ECU共同执行。对在至SW的引入的光标上的操作(例如轻击)的检测或者根据轻击对动画等的绘制由输出操作的SW的每个ECU来执行。
在显示两个不同的画面的情况下,指针引入控制器423在画面之间设置在不执行大于正常操作的操作的情况下不被超越的移动屏障。具体地,当两个画面的中心部分形成为平面时,在每个画面的周边部分设置相当于壁或山的屏障,并且屏障被设置成使得在与平面上的移动相比较大的操作未被执行的情况下移动是不可能的,例如,使得给予反作用力。由此,指针引入控制器423执行控制,使得画面上的光标不会无意地移动到另一相邻的画面。
当光标的操作模式是用于手写字符输入的手写输入模式时,手写输入控制器424控制光标的显示。手写输入控制器424将手动绘制的线转换为对应于该线的字符。特别地,手写输入控制器424被设置在需要手写输入的国家的产品中。
手势确定单元43确定触摸板操作的类型。具体地,手势确定单元43检测在触摸板上操作的轻击、双击、轻拂、缩小和放大。例如,轻击是轻轻击打触摸板的操作,双击是轻轻击打触摸板两次的操作,轻拂是轻轻拂拭触摸板的操作。缩小是用两根手指夹触摸板的操作,放大是用两根手指扩大触摸板的操作。例如,将指定操作目标并且执行轻击的功能分配给轻击,并且将与轻击不同的功能分配给双击或轻拂。将减小画面的功能分配给缩小,并且将扩大画面的功能分配给放大。手势确定单元43确定触摸板上的操作类型,并将与所确定的操作类型相对应的操作给予使得地图等被显示(即针对地图等执行)的程序。
在实施方式中,手势确定单元43仅被设置在第一ECU 40中。因此,不管输出画面的ECU的差异,在所有画面上执行通过手势确定单元43的手势的确定。由此,由于手势的确定仅在手势确定单元43中以统一的方式进行,所以可以在画面之间统一驾驶员等对操作所感觉到的操作感(感觉)。在每个ECU中执行手势的确定的情况下,可能对于每个ECU操作感是不同的。手势确定单元43仅设置在第一ECU 40中,从而避免了与手势确定相关的重复开发。
第二ECU 50发送画面信息,其包括要输出的画面。第二ECU 50包括地图滚动控制器53。地图滚动控制器53例如设置在具有导航功能的ECU中。地图滚动控制器53是实现诸如地图滚动的精细操作的部分。例如,地图滚动控制器53通过地图画面上的轻拂来实现滚动操作。
绘制单元41和51、操作辅助光标控制器42、手势确定单元43、SW操作确定单元44和52以及地图滚动控制器53的功能通过第一ECU 40和第二ECU 50中的程序的算术运算处理来实现。
将参照图2A、图2B和图3来描述第一ECU 40和第二ECU 50使显示设备20显示画面的光标控制的示例。图2A示出了下述的状态:从第二ECU 50输出的“画面A”显示在等于或大于显示器DP的显示区域的左半部分的部分中,而从第一ECU 40输出的“画面A”显示在小于显示器DP的显示区域的右半部分的部分中。图2B示出了下述的状态:从第二ECU 50输出的“画面B”显示在等于或大于显示器DP的显示区域的左半部分的部分中,而从第一ECU 40输出的“画面A”显示在小于显示器DP的显示区域的右半部分的部分中,如图2A。也就是说,在两种情况下,包括从第二ECU 50输出的画面和从第一ECU 40输出的画面的两个画面显示在显示设备20上。
将参照图3以图2A和图2B作为示例来描述光标的操作示例。这里,将描述在显示设备20上显示的画面从图2A转变至图2B并且此后执行在从第二ECU 50输出的画面上的操作的情况下的操作。
如图3所示,首先,第一ECU 40使显示器DP的显示区域的右边部分显示“画面A”(步骤431)。第二ECU 50正在显示器DP的显示区域的左边部分输出“画面A”(步骤531)。通过第二ECU 50的“画面A”通过第一ECU 40显示在显示设备20上。然后,在第二ECU 50中发生向“画面B”的转变事件(步骤532)。第二ECU 50随着事件的发生而输出要作为操作目标的“画面B”(步骤533)。“画面B”通过第一ECU 40显示在显示设备20上。第二ECU 50给予第一ECU40包括从第二ECU 50输出的“画面B”上的光标设置信息的通知M31。由第二ECU 50向第一ECU 40通知的光标设置信息是第二设置信息的示例。
光标设置信息是设置在画面上的每个位置处如何显示光标以及光标展示何种功能的信息。例如,光标设置信息包括五条信息,包括:光标分类;光标显示状态;触摸板控制形式;画面内的SW信息;以及SW的上、下、右、左方向上的下一SW信息。在光标分类中,设置光标的形状,例如十字形、矩形或圆形。在光标显示状态中,设置例如非显示或显示等显示状态。在触摸板控制形式中,不设置控制或者设置交叉移动控制、指针引入、自由光标控制或手写输入控制。在画面内的SW信息中,设置画面中SW的相对坐标和区域以及作为SW的识别码的SW的ID。在SW的上、下、右、左方向上的下一SW信息中,设置作为交叉移动控制中的方向上的移动目的地的其他SW的SW信息。第一ECU 40存储如下信息:即使对于从第一ECU 40输出的“画面A”也设置了如何在画面上的每个位置处显示光标以及光标展示何种功能。存储在第一ECU 40中的信息是第一设置信息的示例。
第一ECU 40接收包括光标设置信息的通知M31,并按照通知M31将光标控制改变为显示通过第二ECU 50显示的“画面B”的区域(步骤432)。
此后,从远程操作设备30向第一ECU 40输入操作信息M32,并且第一ECU 40根据输入的操作信息来检测到用户操作是光标移动(步骤433)。第一ECU 40基于检测到的光标移动的信息改变传送至显示设备20的光标信息,执行光标控制(步骤434)。然后,改变在显示设备20上显示的光标的位置。
随后,从远程操作设备30向第一ECU 40输入操作信息M33,并且第一ECU 40根据输入的操作信息M33检测到用户操作是“轻击”(步骤435)。也就是说,操作的类型被检测为“轻击”。第一ECU 40根据进行轻击时的光标坐标来检测第二ECU 50的“画面B”的坐标,作为轻击操作确定时的光标坐标(步骤436)。此时,第一ECU 40检测“画面B”的坐标系中的光标坐标。然后,第一ECU 40给予第二ECU 50提供包括操作坐标和操作类型的操作坐标通知M34。
第二ECU 50接收操作坐标通知M34并且获取操作坐标和操作类型。由此,第二ECU50检测到SW被轻击,并将与正在轻击的SW相对应的动画作为画面信息输出至第一ECU 40(步骤534)。由此,显示设备20类似地在从第二ECU 50输出的“画面B”上显示从第二ECU 50输出的与轻击相对应的动画。
第二ECU 50向管理画面显示的程序通知由第二ECU 50获取的操作坐标和操作类型,从而执行作为与操作相对应的操作的“画面转换”或“功能操作”(步骤535)。
由此,利用远程操作设备30在从第二ECU 50输出的画面上执行的用户操作可以在第一ECU 40中被处理,并且被通知给第二ECU 50,并且第二ECU 50可以对通知进行适当的处理。
当第一ECU 40正在输出画面时,第一ECU 40基于当在第一ECU 40的“画面A”上进行轻击时的光标坐标在从第一ECU 40输出的“画面A”上显示与轻击相对应的动画。
将参照图4A、图4B和图5来描述第一ECU 40和第二ECU 50使得显示设备20显示画面、显示的两个画面的组合不同并且执行光标控制等的情况的另一示例。
图4A示出了下述状态:通过第二ECU 50的“画面A”显示在等于或大于显示器DP的显示区域的左半部分的部分中,而通过第一ECU 40的“画面A”显示在小于显示器DP的显示区域的右半部分的部分中。图4B示出了下述状态:在显示器DP的整个显示区域中显示通过第二ECU50的“地图画面”。即,示出了在显示设备20的显示器DP上显示从第一ECU 40和第二ECU 50输出画面的情况以及仅显示从第二ECU 50输出的画面的情况。
将参照图5以图4A和图4B作为示例来描述光标的操作示例。这里,将描述在显示设备20上显示的画面从图4A转变成图4B的情况下的操作,以及作为变化后的显示的在通过第二ECU 50显示的地图画面上执行的操作。
如图5所示,首先,第一ECU 40使显示器DP的显示区域的右边部分显示“画面A”(步骤451)。第二ECU 50正在显示器DP的显示区域的左边部分输出“画面A”(步骤551)。第二ECU50的“画面A”通过第一ECU 40显示在显示设备20上。然后,在第二ECU 50中发生要作为操作目标的“全地图”的转变事件(步骤552)。第二ECU 50随着事件的发生而输出“全地图”(步骤553)。“全地图”通过第一ECU 40显示在显示设备20上。当第二ECU 50使得“全地图”被显示时,第一ECU 40停止从第一ECU 40输出的“画面A”的输出。第二ECU 50给予第一ECU40包括从第二ECU 50输出的“全地图”上的光标设置信息的通知M51。由第二ECU 50向第一ECU 40通知的光标设置信息是第二设置信息的示例。
光标设置信息与上述光标设置信息相同,并且是设置在画面上的每个位置或元素处如何显示光标以及光标展现何种功能的信息。例如,光标设置信息包括:光标分类;光标显示状态;触摸板控制形式;画面内的SW信息;以及SW的上、下、右、左方向上的下一SW信息。
第一ECU 40接收包括光标设置信息的通知M51,并且按照通知M51将光标控制改变为显示通过第二ECU 50显示的“全地图”的区域(步骤452)。
此后,从远程操作设备30向第一ECU 40输入操作信息M52,并且第一ECU 40根据输入的操作信息M52检测到用户操作是光标移动(步骤453)。第一ECU 40基于与检测到的光标移动有关的信息来改变传送至显示设备20的光标信息以执行光标控制(步骤454)。由此,改变显示在显示设备20上的光标的位置。
随后,从远程操作设备30向第一ECU 40输入操作信息M53,并且第一ECU 40根据输入的操作信息检测到用户操作是“轻拂”(步骤455)。也就是说,操作类型被检测为“轻拂”。第一ECU 40根据进行轻拂时的光标坐标确定在第二ECU 50的“全地图”上的坐标上执行轻拂操作(步骤456)。此时,第一ECU 40检测“全地图”的坐标系中的光标坐标。然后,第一ECU40给予第二ECU 50包括操作坐标和操作类型的手势通知M54。
第二ECU 50接收手势通知M54并获取操作坐标和操作类型。由此,第二ECU 50检测到地图被轻拂(步骤554)。
第二ECU 50向管理画面显示的程序通知所获取的操作坐标和轻拂操作,从而执行对应于轻拂操作的滚动地图画面的操作(步骤555)。由此,利用远程操作设备30在通过第二ECU 50显示的画面上执行的用户操作可以在第一ECU 40中被处理并且被通知给第二ECU50,并且第二ECU 50可以对通知进行适当的处理。
如上所述,利用根据实施方式的显示系统,获得以下效果。
(1)当第一ECU 40正在输出画面并且当第二ECU 50正在输出画面时,第一ECU 40基于操作信息和设置信息来控制光标的显示。为此,可以抑制由于画面的输出源的转变而导致的关于光标显示的不适感。
(2)由于光标设置信息与从第二ECU 50输出的画面一起被通知给第一ECU 40,所以可以利用适合于改变后的画面的光标的控制形式来控制光标的显示。
(3)在显示设备20上显示的单个画面由从第一ECU 40输出的画面和从第二ECU 50输出的画面构成。在一次显示与转变有关的画面的情况下,光标未立即显示的事件,瞬时显示多个光标的事件等可能被视觉地识别。通过上述配置,由于抑制了由于这种情况引起的不适感,所以更显著地获得符合上述(1)的效果。
(4)第一ECU 40共同地执行对至每个画面上的SW的光标引入的控制,对跨画面的光标移动的控制以及每个画面上的手势的确定。为此,关于每个画面上的光标引入、跨画面的光标显示以及根据手势的画面变化,可以抑制给用户的不适感。
(5)通过输出操作的SW的ECU来执行对在至SW的光标上的操作(例如轻击)的检测或者根据轻击的动画等的绘制。为此,可以将对诸如轻击的操作的检测或者诸如动画的绘制的负荷分配给第一ECU 40和第二ECU 50。
上述实施方式可以以下述形式执行。
画面
在上述实施方式中,已示出了第二ECU 50通过第一ECU 40将由第二ECU 50绘制的画面输出至显示设备20的配置。本发明不限于此,第一ECU 40和第二ECU 50可以直接将由第一ECU 40和第二ECU 50绘制的画面输出至显示设备20。也就是说,从第二ECU 50输出的画面是由绘制单元51绘制并且从第二ECU 50输出至显示设备20的画面。从第一ECU 40输出的画面是由绘制单元41绘制并且从第一ECU 40发送至显示设备20的画面。此时,由绘制单元41、51绘制的画面是在包括绘制单元41、51的ECU中预先分配的预定区域。
第一ECU 40可以使由绘制单元41绘制的画面显示在显示器DP的整个显示区域中。然后,在上述显示系统中,在显示器DP的整个显示区域中显示的画面从自第一ECU 40输出的画面变成自第二ECU 50输出的画面的操作也是可行的。
操作设备
在上述实施方式中,对于远程操作设备30,已经示出了基于在触摸板上的操作来输入信息的设备。本发明不限于此,可以将操作设备改变为基于使用触摸面板、鼠标、视线等的操作来输入信息的设备。
此时,操作设备可以检测与触摸板的操作类型相同的操作类型作为触摸面板上的操作类型。操作设备可以检测点击、双击或滚轮操作,作为鼠标操作的类型。操作设备可以检测眼睛的运动、眨眼或眨眼次数作为视线的操作类型。
其他
从操作设备输入至第一ECU 40的操作信息可以是作为执行操作的位置的操作位置或操作类型中的任一个。
在预先设定了如何在从第二ECU 50输出的画面上显示光标以及光标展现何种功能的情况下,第一ECU 40可以预先存储光标设置信息,并且可以省略向第一ECU 40通知来自第二ECU 50的光标设置信息。
在上述实施方式中,已示出了第一ECU 40通过通信总线10发送显示在显示设备20上的画面信息的配置。本发明不限于此,可以做出以下的配置:第一ECU 40或第二ECU 50通过除了使用CAN协议的通信总线以外的适合于画面信息的通信的通信线等将画面信息发送至显示设备20。
在上述实施方式中,已经示出了显示在显示设备20上的光标的信息被包括在画面信息中并且被发送的配置。本发明不限于此,可以将以上配置改变为光标的信息独立于画面信息被发送至显示设备的配置。
在上述实施方式中,已经描述了通信协议是CAN协议的情况。本发明不限于此,并且只要使用消息计数器来确保通信消息的可靠性,则通信协议可以是除CAN协议之外的协议,例如诸如以太网(注册商标)或FlexRay(注册商标)的通信协议。

Claims (9)

1.一种显示系统,其特征在于,包括:
显示设备,其被配置成显示画面;
操作设备,其被配置成输出操作信息,所述操作信息是与光标的操作有关的信息;以及
多个电子控制单元,其连接至通信网络,所述电子控制单元被配置成各自输出在所述显示设备上显示的画面,所述电子控制单元包括第一电子控制单元和第二电子控制单元,其中,
所述第一电子控制单元被配置成使用第一设置信息和第二设置信息,其中,在所述第一设置信息中设置光标在从所述第一电子控制单元输出的画面上的控制形式,在所述第二设置信息中设置所述光标在从所述第二电子控制单元输出的画面上的控制形式,以及
所述第一电子控制单元被配置成在所述第一电子控制单元正在输出画面的同时基于所述第一设置信息和从所述操作设备输出的操作信息来控制所述光标的显示,并且所述第一电子控制单元被配置成在所述第二电子控制单元正在输出画面的同时基于所述第二设置信息和从所述操作设备输出的操作信息来控制所述光标的显示。
2.根据权利要求1所述的显示系统,其特征在于,所述第二电子控制单元被配置成随着从所述第二电子控制单元输出的画面的改变而将其中设置了所述光标在改变后的画面上的控制形式的信息作为所述第二设置信息发送至所述第一电子控制单元,并且所述第一电子控制单元被配置成使用从所述第二电子控制单元接收的第二设置信息来控制所述光标的显示。
3.根据权利要求1或2所述的显示系统,其特征在于,要在所述显示设备上显示的单个画面包括从所述第一电子控制单元输出的画面和从所述第二电子控制单元输出的画面二者。
4.根据权利要求3所述的显示系统,其特征在于,所述第二电子控制单元被配置成通过所述第一电子控制单元向所述显示设备输出画面,所述第一电子控制单元被配置成将从所述第二电子控制单元输出的画面和从所述第一电子控制单元输出的画面的所组合的画面作为要在所述显示设备上显示的所述单个画面发送至所述显示设备,并且所述第一电子控制单元被配置成通过基于所述操作信息指定所述光标相对于在所述显示设备上显示的画面的相对位置并且将所述光标移动至所指定的相对位置来控制所述光标的显示。
5.根据权利要求4所述的显示系统,其特征在于,所述第一电子控制单元被配置成基于所述操作信息来指定操作类型,并且使得在所述第一电子控制单元和所述第二电子控制单元中的、输出其上显示所述光标的画面的电子控制单元执行所述光标的对应于所指定的操作类型的显示。
6.根据权利要求5所述的显示系统,其特征在于,所述操作设备是触摸板,并且所述操作类型包括轻击、双击、轻拂、缩小和放大。
7.根据权利要求5所述的显示系统,其特征在于,所述操作设备是基于使用触摸面板的操作来输入信息的设备,并且所述操作类型包括轻击和轻拂。
8.根据权利要求5所述的显示系统,其特征在于,所述操作设备是基于使用鼠标的操作来输入信息的设备,并且所述操作类型包括点击、双击和滚轮操作。
9.根据权利要求5所述的显示系统,其特征在于,所述操作设备是基于使用视线的操作来输入信息的设备,并且所述操作类型包括眼睛的运动、眨眼和眨眼次数。
CN201711012817.0A 2016-11-25 2017-10-26 显示系统 Active CN108108107B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-229531 2016-11-25
JP2016229531A JP6565878B2 (ja) 2016-11-25 2016-11-25 表示システム

Publications (2)

Publication Number Publication Date
CN108108107A true CN108108107A (zh) 2018-06-01
CN108108107B CN108108107B (zh) 2021-01-05

Family

ID=62190830

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711012817.0A Active CN108108107B (zh) 2016-11-25 2017-10-26 显示系统

Country Status (3)

Country Link
US (1) US10437413B2 (zh)
JP (1) JP6565878B2 (zh)
CN (1) CN108108107B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
TWI681319B (zh) * 2018-03-22 2020-01-01 大陸商東莞寶德電子有限公司 游標控制系統及其控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080074389A1 (en) * 2006-09-27 2008-03-27 Beale Marc Ivor J Cursor control method
CN101587424A (zh) * 2009-02-03 2009-11-25 刘二中 利用光标或触摸点移动显示屏画面的方法
CN101630227A (zh) * 2008-07-16 2010-01-20 精工爱普生株式会社 图像显示系统、图像供给装置、图像显示装置及方法
US20140009394A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Mobile terminal, image display device and user interface provision method using the same
US20150082241A1 (en) * 2013-09-17 2015-03-19 Samsung Electronics Co., Ltd. Method for screen mirroring and source device thereof
CN104471950A (zh) * 2012-07-17 2015-03-25 Nec显示器解决方案株式会社 显示设备和显示方法
CN106133812A (zh) * 2014-03-31 2016-11-16 索尼公司 显示设备、显示模块和显示构件

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164010A (ja) * 1997-08-11 1999-03-05 Alpine Electron Inc ナビゲーション装置の地図表示方法
JP4541476B2 (ja) * 1999-02-19 2010-09-08 キヤノン株式会社 マルチ画像表示システムおよびマルチ画像表示方法
JP2007256541A (ja) * 2006-03-22 2007-10-04 Matsushita Electric Ind Co Ltd 表示装置
US8994700B2 (en) * 2006-03-23 2015-03-31 Mark J. Foster Artifact-free transitions between dual display controllers
JP5225820B2 (ja) * 2008-11-25 2013-07-03 アイシン精機株式会社 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
JP2011059440A (ja) * 2009-09-10 2011-03-24 Toshiba Corp 画像表示装置及び画像表示方法
US20120287042A1 (en) * 2009-11-24 2012-11-15 Beijing Lenovo Software Ltd. Portable terminal and display output method thereof
JP5168322B2 (ja) * 2010-06-23 2013-03-21 株式会社デンソー 車両用表示装置
US9798436B2 (en) * 2010-07-08 2017-10-24 Red Hat Israel, Ltd. Remote computing with a low latency mouse mode
KR20120135799A (ko) * 2011-06-07 2012-12-17 삼성전자주식회사 디스플레이장치 및 그 제어방법과, 영상처리장치
US9176634B2 (en) * 2011-12-15 2015-11-03 Toyota Jidosha Kabushiki Kaisha Operation device
GB2505406A (en) * 2012-08-16 2014-03-05 Realvnc Ltd A method and system of localising a pointer to the corner of a window when using virtual network computing (VNC) to control a client device.
JP2015138475A (ja) * 2014-01-23 2015-07-30 キヤノン株式会社 ウィンドウシステム及びカーソル制御方法
RU2665921C1 (ru) * 2014-12-17 2018-09-04 Мицубиси Электрик Корпорейшн Система удаленного управления и способ обработки информации
KR102364674B1 (ko) * 2015-04-27 2022-02-18 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080074389A1 (en) * 2006-09-27 2008-03-27 Beale Marc Ivor J Cursor control method
CN101630227A (zh) * 2008-07-16 2010-01-20 精工爱普生株式会社 图像显示系统、图像供给装置、图像显示装置及方法
CN101587424A (zh) * 2009-02-03 2009-11-25 刘二中 利用光标或触摸点移动显示屏画面的方法
US20140009394A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Mobile terminal, image display device and user interface provision method using the same
CN104471950A (zh) * 2012-07-17 2015-03-25 Nec显示器解决方案株式会社 显示设备和显示方法
US20150082241A1 (en) * 2013-09-17 2015-03-19 Samsung Electronics Co., Ltd. Method for screen mirroring and source device thereof
CN106133812A (zh) * 2014-03-31 2016-11-16 索尼公司 显示设备、显示模块和显示构件

Also Published As

Publication number Publication date
JP6565878B2 (ja) 2019-08-28
US20180150135A1 (en) 2018-05-31
JP2018085071A (ja) 2018-05-31
US10437413B2 (en) 2019-10-08
CN108108107B (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
US9836146B2 (en) Method of controlling virtual object or view point on two dimensional interactive display
CN101667058B (zh) 在多系统间切换焦点的交互方法
JP6004716B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム
US20170047065A1 (en) Voice-controllable image display device and voice control method for image display device
CN106201207A (zh) 一种虚拟现实交互方法及装置
WO2022228465A1 (zh) 界面显示方法、装置、电子设备及存储介质
US9411441B2 (en) Interactive whiteboard for private use
TW201218036A (en) Method for combining at least two touch signals in a computer system
CN108108107A (zh) 显示系统
CN109976614B (zh) 一种立体图形的标注方法、装置、设备及介质
US20130198675A1 (en) Display with shared control panel for different input sources
US20150103025A1 (en) Information processing device, method and program
KR101564089B1 (ko) 손동작 인식을 이용한 프리젠테이션 실행시스템
CN107679219B (zh) 匹配方法及装置、交互智能平板及存储介质
US20150355787A1 (en) Dynamically executing multi-device commands on a distributed control
CN113064535B (zh) 二维图表的游标展示方法、装置、电子设备及存储介质
JPH0468392A (ja) 画像表示装置
CN102473042B (zh) 用于操作多个计算装置的系统、方法以及计算机程序
CN106843719A (zh) 在虚拟屏幕中实现触摸屏应用的方法和系统、vr设备
JP3892534B2 (ja) 表示装置
JPS62150423A (ja) 表示制御装置
JPS62150477A (ja) 表示装置
CN106293304B (zh) 界面操作方法及装置
WO2015167531A2 (en) Cursor grip
JP2010182135A (ja) 入力装置および入力方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant