WO2023113079A1 - 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치 - Google Patents

신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치 Download PDF

Info

Publication number
WO2023113079A1
WO2023113079A1 PCT/KR2021/019305 KR2021019305W WO2023113079A1 WO 2023113079 A1 WO2023113079 A1 WO 2023113079A1 KR 2021019305 W KR2021019305 W KR 2021019305W WO 2023113079 A1 WO2023113079 A1 WO 2023113079A1
Authority
WO
WIPO (PCT)
Prior art keywords
container
shared
layer
service container
service
Prior art date
Application number
PCT/KR2021/019305
Other languages
English (en)
French (fr)
Inventor
이철희
정준영
이은구
이동규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2021/019305 priority Critical patent/WO2023113079A1/ko
Publication of WO2023113079A1 publication Critical patent/WO2023113079A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines

Definitions

  • the present invention relates to a signal processing device and a vehicle display device having the same, and more particularly, to a signal processing device capable of efficiently executing an application based on a service container, and a vehicle display device including the same.
  • a vehicle is a device that allows a user to move in a desired direction.
  • a typical example is a car.
  • a vehicle display device is mounted inside the vehicle.
  • a display is arranged in a cluster or the like to display various types of information.
  • various displays such as AVN (Audio Video Navigation) displays, are being installed in vehicles separately from clusters.
  • AVN Audio Video Navigation
  • US20190250610 (hereafter referred to as the referenced document) discloses a system and method for an extensible architecture in a vehicular environment.
  • An object of the present invention is to provide a signal processing device capable of efficiently executing an application based on a service container, and a display device for a vehicle having the same.
  • another object of the present invention is to provide a signal processing device capable of efficiently executing an application by utilizing a shared container, and a display device for a vehicle having the same.
  • another object of the present invention is to provide a signal processing device capable of minimizing a storage space when a service container is installed, and a display device for a vehicle having the same.
  • another object of the present invention is to provide a signal processing device capable of efficiently executing an application based on a service container even if a plurality of virtual machines have different operating systems, and a display device for a vehicle having the same.
  • a signal processing device related to the present invention for achieving the above object includes a processor that performs signal processing for a display mounted on a vehicle, the processor executes a first virtual machine to a second virtual machine, and The virtualization machine operates as a server virtualization machine, the second virtualization machine operates as a guest virtualization machine, and at least one of the first virtualization machine to the second virtualization machine runs a shared container and at least one service container on a container engine, , Before the at least one service container is executed, a shared layer in the shared container is added to the at least one service container, after the shared layer is added, the at least one service container is executed, and after the execution of the at least one service container is terminated, the shared layer is added to the at least one service container. retrieve the layer
  • the second virtualization machine may execute a shared container and at least one service container.
  • a first shared layer and a second shared layer in the shared container are added to the first service container and the second service container, respectively;
  • the first service container and the second service container are executed, and after the execution of the first service container and the second service container is terminated, the first shared layer and the second shared layer are created.
  • a common shared layer in the shared container is added to the first service container and the second service container, respectively, and the common shared layer
  • a common shared layer may be retrieved.
  • a video device is accessed, and if there is a detection engine layer in the camera service container among at least one service container, a detection engine in the detection engine layer is used. to access the video device.
  • a detection engine layer in the shared container may be added to the camera service container, and the video device may be accessed using the detection engine in the detection engine layer.
  • the shared container provides a shared layer only to service containers of a first group among a plurality of service containers, and does not provide a shared layer to service containers of groups different from the first group.
  • the processor may execute a container manager for managing at least one service container, and the shared container may execute a data sharing application.
  • the service container manager may perform at least one of lifecycle management, execution time management, execution management, or group management of at least one service container.
  • the data sharing application may perform sharing of a specific layer or restriction of access authority for containers within a group.
  • the shared container may include a monitor service layer and provide the monitor service layer as at least one service container.
  • the shared container includes a network interface layer, provides the network interface layer to at least one service container, and the service container provided with the network interface layer uses the network interface layer to process other virtual machines or other signals. Data can be transmitted to the device.
  • the shared container may provide a shared layer including augmented reality (AR) data, virtual reality (VR) data, or mixed reality (MR) data in at least one service container.
  • AR augmented reality
  • VR virtual reality
  • MR mixed reality
  • a shared layer in a shared container may include binary files, library files, and configuration files required for applications.
  • the service container may include a base image layer, a shared layer on the base image layer, and a writable layer on the shared layer.
  • the processor may execute a hypervisor and execute a first virtual machine to a third virtual machine on the hypervisor.
  • the processor may execute a container engine in the second virtualization machine and execute a service container on the container engine.
  • the processor may download and install the first service container from the server, and add a sharing layer to the first service container.
  • the second virtual machine and the third virtual machine may be executed in different operating systems.
  • a vehicle display device includes a signal processing device including a first display, a second display, and a processor that performs signal processing for the first display and the second display, and performs signal processing.
  • the apparatus includes a processor that performs signal processing for a display mounted on a vehicle, the processor executes a first virtual machine to a second virtual machine, the first virtual machine operates as a server virtual machine, and the second virtual machine
  • the virtualization machine operates as a guest virtualization machine, and at least one of the first virtualization machine to the third virtualization machine executes a shared container and at least one service container on a container engine, and before executing the at least one service container, in the shared container.
  • a shared layer is added in at least one service container, the at least one service container is executed after adding the shared layer, and the shared layer is retrieved after execution of the at least one service container is terminated.
  • a signal processing apparatus related to the present invention includes a processor that performs signal processing for a display mounted on a vehicle, the processor executes a first virtual machine to a second virtual machine, and the first virtual machine is a server virtual machine.
  • the second virtualization machine operates as a guest virtualization machine
  • at least one of the first virtualization machine to the second virtualization machine executes a shared container and at least one service container on a container engine, and at least one service container
  • the shared layer in the shared container is added to at least one service container, after the shared layer is added, the at least one service container is executed, and after the execution of the at least one service container is terminated, the shared layer is retrieved. Accordingly, it is possible to efficiently execute applications based on the service container. In particular, applications can be run efficiently by utilizing shared containers. In addition, it is possible to minimize the storage space when installing the service container.
  • the second virtualization machine may execute a shared container and at least one service container. Accordingly, it is possible to efficiently execute applications based on the service container.
  • a first shared layer and a second shared layer in the shared container are added to the first service container and the second service container, respectively;
  • the first service container and the second service container are executed, and after the execution of the first service container and the second service container is terminated, the first shared layer and the second shared layer are created.
  • a common shared layer in the shared container is added to the first service container and the second service container, respectively, and the common shared layer
  • a common shared layer may be retrieved. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • a video device is accessed, and if there is a detection engine layer in the camera service container among at least one service container, a detection engine in the detection engine layer is used. to access the video device. Accordingly, it is possible to efficiently execute applications based on the service container.
  • a detection engine layer in the shared container may be added to the camera service container, and the video device may be accessed using the detection engine in the detection engine layer. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • the shared container provides a shared layer only to service containers of a first group among a plurality of service containers, and does not provide a shared layer to service containers of groups different from the first group. Accordingly, it is possible to efficiently execute applications within the same group by utilizing a shared container.
  • the processor may execute a container manager for managing at least one service container, and the shared container may execute a data sharing application. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • the service container manager may perform at least one of lifecycle management, execution time management, execution management, or group management of at least one service container. Accordingly, it is possible to efficiently execute applications based on the service container.
  • the data sharing application may perform sharing of a specific layer or restriction of access authority for containers within a group. Accordingly, it is possible to efficiently execute applications based on the service container. In particular, applications can be run efficiently by utilizing shared containers.
  • the shared container may include a monitor service layer and provide the monitor service layer as at least one service container. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • the shared container includes a network interface layer, provides the network interface layer to at least one service container, and the service container provided with the network interface layer uses the network interface layer to process other virtual machines or other signals. Data can be transmitted to the device. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • the shared container may provide a shared layer including augmented reality (AR) data, virtual reality (VR) data, or mixed reality (MR) data in at least one service container. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • AR augmented reality
  • VR virtual reality
  • MR mixed reality
  • a shared layer in a shared container may include binary files, library files, and configuration files required for applications. Accordingly, it is possible to efficiently run an application by utilizing a shared container.
  • the service container may include a base image layer, a shared layer on the base image layer, and a writable layer on the shared layer. Accordingly, it is possible to efficiently execute applications based on the service container.
  • the processor may execute a hypervisor and execute a first virtual machine to a third virtual machine on the hypervisor. Accordingly, it is possible to efficiently execute a plurality of virtual machines.
  • the processor may execute a container engine in the second virtualization machine and execute a service container on the container engine. Accordingly, the service container can be efficiently executed.
  • the processor may download and install the first service container from the server, and add a sharing layer to the first service container. Accordingly, it is possible to efficiently install and execute the first service container. In addition, it is possible to minimize the storage space upon installation of the first service container.
  • the second virtual machine and the third virtual machine may be executed in different operating systems. Meanwhile, even if the operating systems of the plurality of virtual machines are different, applications based on service containers can be efficiently executed.
  • a vehicle display device includes a signal processing device including a first display, a second display, and a processor that performs signal processing for the first display and the second display, and performs signal processing.
  • the apparatus includes a processor that performs signal processing for a display mounted on a vehicle, the processor executes a first virtual machine to a second virtual machine, the first virtual machine operates as a server virtual machine, and the second virtual machine
  • the virtualization machine operates as a guest virtualization machine, and at least one of the first virtualization machine to the third virtualization machine executes a shared container and at least one service container on a container engine, and before executing the at least one service container, in the shared container.
  • a shared layer is added in at least one service container, the at least one service container is executed after adding the shared layer, and the shared layer is retrieved after execution of the at least one service container is terminated. Accordingly, it is possible to efficiently execute applications based on the service container. In particular, applications can be run efficiently by utilizing shared containers. In addition, it is possible to minimize the storage space when installing the service container.
  • 1A is a diagram illustrating an example of a vehicle exterior and a vehicle interior.
  • 1B is a view showing another example of the inside of a vehicle.
  • FIG. 2 is a diagram illustrating an appearance of a display device for a vehicle according to an embodiment of the present invention.
  • FIG. 3 illustrates an example of an internal block diagram of the vehicle display device of FIG. 2 .
  • FIG. 4 is a diagram showing a system executed in a signal processing apparatus related to the present invention.
  • FIG. 5 is a diagram showing an example of a system executed in the signal processing apparatus of the present invention.
  • FIG. 6 is a diagram showing another example of a system executed in the signal processing apparatus of the present invention.
  • FIG. 7 is a diagram showing another example of a system executed in the signal processing apparatus of the present invention.
  • FIG. 8 to 9B are views referred to in the description of FIG. 5 .
  • FIG. 10 is a diagram showing an example of a system executed in a signal processing apparatus related to the present invention.
  • FIG. 11 is a diagram illustrating an example of a system executed in a signal processing apparatus according to an embodiment of the present invention.
  • FIG. 12 to 17 are views referred to in the description of FIG. 11 .
  • module and “unit” for the components used in the following description are simply given in consideration of ease of writing this specification, and do not themselves give a particularly important meaning or role. Accordingly, the “module” and “unit” may be used interchangeably.
  • 1A is a diagram illustrating an example of a vehicle exterior and a vehicle interior.
  • the vehicle 200 is operated by a plurality of wheels 103FR, 103FL, 103RL, .. rotated by a power source, and a steering wheel 150 for adjusting the traveling direction of the vehicle 200. .
  • the vehicle 200 may further include a camera 195 for obtaining an image of the front of the vehicle.
  • the vehicle 200 may include a plurality of displays 180a and 180b for displaying images and information therein.
  • FIG. 1A illustrates a cluster display 180a and an audio video navigation (AVN) display 180b as the plurality of displays 180a and 180b.
  • APN audio video navigation
  • HUD Head Up Display
  • the AVN (Audio Video Navigation) display 180b may also be named a center information display (Center Information Dislpay).
  • the vehicle 200 described in this specification may be a concept that includes all of a vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source. there is.
  • 1B is a view showing another example of the inside of a vehicle.
  • a cluster display 180a an AVN (Audio Video Navigation) display 180b, a rear seat entertainment display 180c and 180d, a room mirror display (not shown) and the like may be mounted.
  • AVN Audio Video Navigation
  • a rear seat entertainment display 180c and 180d a room mirror display (not shown) and the like may be mounted.
  • FIG. 2 is a diagram illustrating an appearance of a display device for a vehicle according to an embodiment of the present invention.
  • a vehicle display device 100 is a signal processing device that performs signal processing for displaying images and information on a plurality of displays 180a to 180b and a plurality of displays 180a to 180b. (170) may be provided.
  • the first display 180a is a cluster display 180a for displaying driving conditions and operation information
  • the second display 180b displays vehicle driving information, navigation maps, and various other information. It may be an AVN (Audio Video Navigation) display 180b for displaying entertainment information or images.
  • AVN Audio Video Navigation
  • the signal processing device 170 includes a processor 175 therein, and may execute first to third virtual machines 520 to 540 on the hypervisor 505 in the processor 175 .
  • the second virtualization machine 530 may operate for the first display 180a, and the third virtualization machine 540 may operate for the second display 180b.
  • the hypervisor 505-based shared memory 508 can be controlled to be set. Accordingly, the same information or the same image can be synchronized and displayed on the first display 180a and the second display 180b in the vehicle.
  • the first virtualization machine 520 in the processor 175 shares at least a portion of data with the second virtualization machine 530 and the third virtualization machine 540 for data sharing processing. Accordingly, it is possible to divide and process data in a plurality of virtual machines for a plurality of displays in the vehicle.
  • the first virtualization machine 520 in the processor 175 receives and processes wheel speed sensor data of the vehicle, and processes the processed data into at least one of the second virtualization machine 530 and the third virtualization machine 540.
  • Wheel speed sensor data can be transmitted. Accordingly, wheel speed sensor data of the vehicle can be shared with at least one virtual machine or the like.
  • the vehicle display device 100 further includes a rear seat entertainment display 180c for displaying driving state information, simple navigation information, various entertainment information or images.
  • a rear seat entertainment display 180c for displaying driving state information, simple navigation information, various entertainment information or images.
  • the signal processing device 170 executes a fourth virtual machine (not shown) in addition to the first virtual machine to the third virtual machine 520 to 540 on the hypervisor 505 in the processor 175 to perform RSE.
  • the display 180c may be controlled.
  • some of the plurality of displays 180a to 180c may operate based on a Linux OS, and some may operate based on a web OS.
  • the signal processing device 170 performs a touch input on any one of a plurality of displays 180a to 180b or 180a to 180c operating under various operating systems (OS). In this case, it is possible to control to quickly and accurately process the touch input.
  • OS operating systems
  • the vehicle speed indicator 212a and the vehicle internal temperature indicator 213a are displayed on the first display 180a, and a plurality of applications and the vehicle speed indicator 212b are displayed on the second display 180b. and the vehicle interior temperature indicator 213b are displayed, and a second home screen 222b including a plurality of applications and the vehicle interior temperature indicator 213c is displayed on the third display 180c. Illustrate what is displayed.
  • FIG. 3 illustrates an example of an internal block diagram of a display device for a vehicle according to an embodiment of the present invention.
  • a vehicle display device 100 includes an input unit 110, a communication unit 120, an interface 130, a signal processing device 170, and a plurality of displays 180a to 180c. , an audio output unit 185, and a power supply unit 190.
  • the input unit 110 may include a physical button or pad for button input or touch input.
  • the input unit 110 may include a touch sensor (not shown) for sensing a touch input of the displays 180a, 180b, and 180c.
  • the input unit 110 may include a microphone (not shown) for user voice input.
  • the communication unit 120 may exchange data with the mobile terminal 800 or the server 900 in a wireless manner.
  • the communication unit 120 may wirelessly exchange data with the vehicle driver's mobile terminal 800 .
  • various data communication methods such as Bluetooth, WiFi, WiFi Direct, and APiX are possible.
  • the communication unit 120 may receive weather information and road traffic condition information, eg, Transport Protocol Expert Group (TPEG) information, from the mobile terminal 800 or the server 900 . To this end, the communication unit 120 may include a mobile communication module (not shown).
  • TPEG Transport Protocol Expert Group
  • the interface 130 may receive sensor information or the like from the ECU 770 or the sensor device 760 and transmit the received information to the signal processing device 170 .
  • the sensor information includes vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, fuel information, tire information, vehicle It may include at least one of lamp information, vehicle internal temperature information, and vehicle internal humidity information.
  • Such sensor information includes heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/backward sensor, wheel sensor, vehicle speed sensor, It may be obtained from a vehicle body tilt detection sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle internal temperature sensor, a vehicle internal humidity sensor, and the like.
  • the position module may include a GPS module for receiving GPS information.
  • the interface 130 receives vehicle front image data, vehicle side image data, vehicle rear image data, vehicle distance information, etc. from a camera 195, a lidar (not shown), or a radar (not shown), and the like , the received information may be transmitted to the signal processing device 170.
  • the audio output unit 185 converts the electrical signal from the signal processing device 170 into an audio signal and outputs it. To this end, a speaker or the like may be provided.
  • the power supply 190 may supply power required for operation of each component under the control of the signal processing device 170 .
  • the power supply unit 190 may receive power from a battery inside the vehicle.
  • the signal processing device 170 controls the overall operation of each unit in the vehicle display device 100 .
  • the signal processing device 170 may be implemented in the form of a System On Chip (SOC).
  • SOC System On Chip
  • the signal processing device 170 includes a processor 175 that performs signal processing for the vehicle displays 180a, 180b, and 180c, a first memory 140a and a second memory 140b for storing various data, and a microcomputer ( 135) may be provided.
  • the first memory 140a is a non-volatile memory and can store various types of data even in a standby mode or when power is turned off.
  • the first memory 140a may store a file corresponding to a first application executed in any one of the plurality of virtual machines 510 to 550 based on entering the standby mode. .
  • the first memory 140a may store an operating system (OS).
  • OS operating system
  • the first memory 140a may store various data for overall operation of the vehicle display device 100, such as a program for processing or controlling the signal processing device 170.
  • the second memory 140b is a volatile memory, and various types of data are erased in a standby mode or when the power is turned off, and may temporarily store data in an active mode.
  • the second memory 140b may load a file stored in the first memory 140a based on a transition from the standby mode to the active mode.
  • the second memory 140b may load an operating system (OS) stored in the first memory 140a based on a transition from the standby mode to the active mode.
  • OS operating system
  • the processor 175 may execute a hypervisor (505 in FIG. 5).
  • the processor 175 may execute the first to third virtual machines 520 to 540 on the hypervisor (505 in FIG. 5) within the processor 175.
  • the processor 175 may further execute a legacy virtualization machine that receives and processes Ethernet data.
  • the legacy virtualization machine may be executed in the first virtualization machine 520 in the processor 175 as shown in FIG. 5 .
  • the first virtual machine 520 may be referred to as a server virtual machine
  • the second virtual machine to the third virtual machine (530 ⁇ 540) can be named a guest virtual machine (Guest Virtual Machine).
  • the second virtualization machine 530 may operate for the first display 180a
  • the third virtualization machine 540 may operate for the second display 180b.
  • the first virtualization machine 520 in the processor 175 may receive vehicle sensor data, location information data, camera image data, audio data, or touch input data, and may process or process and output the received data.
  • vehicle sensor data location information data
  • camera image data location information data
  • audio data audio data
  • touch input data may process or process and output the received data.
  • data processing can be performed efficiently.
  • 1:N data sharing is possible.
  • the first virtual machine 520 directly receives and processes CAN communication data, audio data, radio data, USB data, and wireless communication data for the second to third virtual machines 530 to 540. can do.
  • the first virtual machine 520 may transmit the processed data to the second virtual machine to the third virtual machine 530 to 540 .
  • the first virtual machine 520 among the first to third virtual machines 520 to 540 receives communication data and external input data and performs signal processing, thereby processing signals in other virtual machines.
  • the burden is reduced, 1:N data communication becomes possible, and synchronization at the time of data sharing becomes possible.
  • the first virtualization machine 520 writes part of the data in the first shared memory (not shown) to be transferred to the second virtualization machine 530, and transfers another part of the data to the third virtualization machine. 1 is recorded in a shared memory (not shown), and the second virtual machine 530 and the third virtual machine 540 respectively process the received data, and the processed data is recorded in a second shared memory (not shown). control as much as possible
  • the data at this time may be any one of video data, audio data, navigation data, or voice recognition data.
  • the first virtualization machine 520 may process another portion of data and control the processed data to be recorded in a second shared memory (not shown). That is, in addition to the second virtual machine 530 and the third virtual machine, the first virtual machine 520 may process data.
  • the fourth virtualization machine 550 operating for the third display 180c is executed in the processor 175, the first virtualization machine 520 stores another part of data in the first shared memory (not shown). ), and the fourth virtualization machine 550 may process each received data and control the processed data to be recorded in a second shared memory (not shown).
  • the first virtualization machine 520 may generate command queues for distributed processing of data in the second to third virtualization machines 530 and 540 . Accordingly, it is possible to divide and process data in a plurality of virtual machines.
  • the first virtual machine 520 in the processor 175 may generate one identical command queue when the second virtual machine 530 and the third virtual machine 530 and 540 share the same data. Accordingly, the same data can be synchronized and shared.
  • the first virtualization machine 520 may generate command queues corresponding to the number of virtualization machines for distributed processing of data.
  • the first virtualization machine 520 may control transmission of at least a portion of data to at least one of the second virtualization machine 530 and the third virtualization machine 540 for data distribution processing.
  • the first virtualization machine 520 allocates a first shared memory (not shown) for transmitting at least a portion of data to at least one of the second virtualization machine 530 and the third virtualization machine 540.
  • Image data processed by the second virtual machine 530 or the third virtual machine 540 may be recorded in a second shared memory (not shown).
  • the first virtualization machine 520 may record data in the shared memory 508 and control the second virtualization machine 530 and the third virtualization machine 540 to share the same data.
  • the first virtualization machine 520 records radio data or wireless communication data in the shared memory 508 so that the second virtualization machine 530 and the third virtualization machine 540 share the same data. You can control it. Accordingly, it is possible to share data in a 1:N manner.
  • the hypervisor 505-based shared memory 508 can be controlled to be set.
  • the first virtualization machine 520 in the processor 175 uses the shared memory 508 based on the hypervisor 505, the second virtualization machine 530 and the third virtualization machine 540, the same Data can be synchronized and transmitted. Accordingly, the same image can be synchronized and displayed on the plurality of displays 180a to 180b in the vehicle.
  • the signal processing device 170 may process various signals such as audio signals, video signals, and data signals.
  • the signal processing device 170 may be implemented in the form of a System On Chip (SOC).
  • SOC System On Chip
  • the shared memory 508 may be implemented in the first memory 140a.
  • FIG. 4 is a diagram showing a system executed in a signal processing apparatus related to the present invention.
  • FIG. 4 is a diagram illustrating that virtual machines are used for the cluster display 180a and the AVN display 180b, respectively.
  • the system 400 executed in the signal processing apparatus of FIG. 4 illustrates that the cluster virtualization machine 430 and the AVN virtualization machine 440 are executed on the hypervisor 405 in the processor 175.
  • system 400 executed in the signal processing device of FIG. 4 illustrates that a legacy virtual machine 410 is also executed on the hypervisor 405 in the processor 175 .
  • the legacy virtualization machine 410 includes an interface 412 for data communication with the memory 140 and an interface 413 for Ethernet communication.
  • the cluster virtual machine 430 includes an interface 431 for CAN communication, an interface 432 for communication with the interface 412 of the legacy virtual machine 410, and a legacy virtual machine 410 An interface 433 for communication with the interface 413 of ) may be provided.
  • the AVN virtualization machine 440 includes an interface 441 for input/output of audio data, radio data, USB data, and wireless communication data, and an interface for communication with the interface 412 of the legacy virtualization machine 410. 442, and an interface 443 for communication with the interface 413 of the legacy virtualization machine 410.
  • the AVN virtualization machine 440 since CAN communication data is input and output only in the cluster virtualization machine 430, the AVN virtualization machine 440 has a disadvantage in that CAN communication data cannot be utilized.
  • the cluster virtualization machine 430 and the cluster virtualization machine 430 have to have separate interfaces 431, 432, 441, 442, respectively. there is.
  • the virtual machine is divided into a server virtual machine and a guest virtual machine, and various memory data, communication data, etc. are input and output from the server virtual machine rather than from the guest virtual machine. This will be described with reference to FIG. 5 below.
  • FIG. 5 is a diagram showing an example of a system executed in the signal processing apparatus of the present invention.
  • the system 500 of FIG. 5 includes a first virtualization machine 520, which is a server virtualization machine, and a second virtualization machine 520, which is a guest virtualization machine, on a hypervisor 505 in a processor 175 in a signal processing device 170.
  • the second virtualization machine 530 may be a virtualization machine for the cluster display 180a
  • the third virtualization machine 540 may be a virtualization machine for the AVN display 180b.
  • the second virtualization machine 530 and the third virtualization machine 540 may operate for image rendering of the cluster display 180a and the AVN display 180b, respectively.
  • system 500 executed in the signal processing device 170 of FIG. 5 illustrates that a legacy virtual machine 510 is also executed on the hypervisor 505 in the processor 175 .
  • the legacy virtual machine 510 includes an interface 511 for data communication with the memory 140 and Ethernet communication.
  • the interface 511 is a physical device driver, but various modifications are possible.
  • the legacy virtual machine 510 may further include a virtio-backend interface 512 for data communication with the second to third virtual machines 530 and 540 .
  • the first virtual machine 520 may include an interface 521 for input/output of audio data, radio data, USB data, and wireless communication data, and an input/output server interface 522 for data communication with a guest virtual machine. .
  • the first virtualization machine 520 which is a server virtualization machine, transfers I/Os that are difficult to virtualize by standard virtualization technology (VirtIO) to a plurality of guest virtualization machines, for example, the second to third virtualization machines 530 and 540. etc. can be provided.
  • VirtualIO virtualization technology
  • the first virtualization machine 520 which is a server virtualization machine, controls radio data, audio data, etc. at the level of a supervisor, and a plurality of guest virtualization machines, for example, second to third virtualization machines ( 530,540) and the like.
  • the first virtualization machine 520 which is a server virtualization machine, processes vehicle data, sensor data, information around the vehicle, and the like, and transfers the processed data or information to a plurality of guest virtualization machines, for example, second to second virtualization machines.
  • 3 virtual machines 530 and 540 may be provided.
  • the first virtual machine 520 may provide supervisory services such as vehicle data processing and audio routing management.
  • the second virtual machine 530 may include an input/output client interface 532 for data communication with the first virtual machine 520 and APIs 533 that control the input/output client interface 532. .
  • the second virtualization machine 530 may have a virtio-backend interface for data communication with the legacy virtualization machine 510 .
  • the second virtualization machine 530 transmits memory data by communication with the memory 140 from an interface 512 of the legacy virtualization machine 510 through a virtio-backend interface. Alternatively, Ethernet data by Ethernet communication may be received.
  • the third virtual machine 540 may include an input/output client interface 542 for data communication with the first virtual machine 520 and APIs 543 controlling the input/output client interface 542.
  • the third virtualization machine 540 may have a virtio-backend interface for data communication with the legacy virtualization machine 510 .
  • the third virtualization machine 540 transmits memory data by communication with the memory 140 from an interface 512 of the legacy virtualization machine 510 through a virtio-backend interface. Alternatively, Ethernet data by Ethernet communication may be received.
  • legacy (legacy) virtual machine 510 unlike FIG. 5, it is also possible to be provided in the first virtual machine 520.
  • CAN communication data is input and output only in the first virtualization machine 520, but through data processing in the first virtualization machine 520, a plurality of guest virtualization machines, for example, the second virtualization machine 520. to third virtual machines 530 and 540. Accordingly, 1:N data communication by processing of the first virtualization machine 520 is possible.
  • audio data, radio data, USB data, and wireless communication data are input and output only in the first virtual machine 520, but through data processing in the first virtual machine 520.
  • a plurality of guest virtual machines, for example, second to third virtual machines 530 and 540 may be provided. Accordingly, 1:N data communication by processing of the first virtualization machine 520 is possible.
  • a touch input to the first display 180a or the second display 180b is input only to the first virtual machine 520, and the second to third It is not input to the virtual machines 530 and 540.
  • Information about the touch input is transmitted to the second virtual machine 530 or the third virtual machine 540 .
  • the second to third virtual machines 530 and 540 may operate based on different OSs.
  • the second virtualization machine 540 may operate based on a Linux OS, and the third virtualization machine 540 may operate based on a web OS.
  • the first virtual machine 520 may set the shared memory 508 based on the hypervisor 505 to share data even though the second to third virtual machines 530 and 540 operate under different OS bases. Accordingly, even if the second to third virtual machines 530 and 540 operate under different operating systems (OS), the same data or the same image can be synchronized and shared. As a result, the same data or the same image can be synchronized and displayed on the plurality of displays 180a and 180b.
  • OS operating systems
  • the first virtualization machine 520 transfers information about a touch input to the second virtualization machine 530 or the third virtualization machine 530 even though the second to third virtualization machines 530 and 540 operate under different OS bases. Send to machine 540. Accordingly, even if the second to third virtual machines 530 and 540 operate under different operating systems (OS), they can quickly and accurately process touch inputs.
  • OS operating systems
  • the first virtualization machine 520 through the second to third virtualization machines 530 and 540, displays a display manager 527 for controlling overlays displayed on the first display 180a and the second display 180b. and a display layer server 529.
  • the display layer server 529 may receive a first overlay provided by the second virtualization machine 530 and a second overlay provided by the third virtualization machine 540 .
  • the display layer server 529 may transmit a virtual overlay separate from the first overlay or the second overlay to at least one of the second virtual machine 530 and the third virtual machine 540. .
  • the display manager 527 in the first virtualization machine 520 transmits the first overlay provided by the second virtualization machine 530 and the second overlay provided by the third virtualization machine 540 to the display layer server. It can be received through (529).
  • the display manager 527 in the first virtualization machine 520 displays a virtual overlay separate from the first overlay or the second overlay through the display layer server 529, the second virtualization machine 530 ) or at least one of the third virtual machine 540.
  • the second virtualization machine 530 may synthesize the first overlay and the virtual overlay and control them to be displayed on the first display 180a.
  • the third virtualization machine 540 may synthesize the second overlay and the virtual overlay and control them to be displayed on the second display 180b.
  • the first virtual machine 520 may include an input manager 524 that receives an input signal from the outside.
  • the input signal at this time may be an input signal of a predetermined button (start button, etc.) in the vehicle, a touch input signal, or a voice input signal.
  • the input manager 524 in the first virtual machine 520 may receive a touch input from the first display 180a or the second display 180b.
  • the first virtualization machine 520 transmits information about a touch input related to a touch input from the first display 180a or the second display 180b to the second virtualization machine 530 or the third virtualization machine 520 . It may have a touch server 528 that transmits to machine 540 .
  • the touch server 528 in the first virtualization machine 520 transmits information about the touch input (Touch) to the second virtualization machine 530. ) can be transmitted.
  • the touch server 528 in the first virtual machine 520 may receive a touch input from the first display 180a or the second display 180b.
  • FIG. 6 is a diagram showing another example of a system executed in the signal processing apparatus of the present invention.
  • the processor 175 in the signal processing device 170 is a hypervisor ( 505), the first to third virtual machines 520 to 540 are executed, and the first virtual machine 520 in the processor 175 includes the second virtual machine 530 and the third virtual machine 540 ), the shared memory 508 based on the hypervisor 505 is controlled to be set for data transmission.
  • information on touch input may be exemplified as data. Accordingly, information on the touch input (Touch) is transmitted to the second virtual machine 530 or the third virtual machine 540, and eventually, a touch input to the first display 180a or the second display 180b. (Touch) processing can be performed quickly and accurately. Also, even if the number of running virtual machines increases, processing for touch inputs (Touch) can be performed quickly and accurately.
  • image data may be exemplified as data. Accordingly, an image can be displayed on the first display 180a or the second display 180b.
  • the same image data when shared in the shared memory 508, the same image may be synchronized and displayed on a plurality of displays 180a to 180b in the vehicle.
  • data may include CAN communication data, audio data, radio data, USB data, wireless communication data, location information data, and the like. Accordingly, information on corresponding data can be displayed on the first display 180a or the second display 180b.
  • the legacy virtualization machine 510 transmits memory data from the memory 140 or Ethernet data through Ethernet communication using the shared memory 508 based on the hypervisor 505. , may be transmitted to the second virtual machine 530 and the third virtual machine 540. Accordingly, information corresponding to memory data or Ethernet data can be displayed on the first display 180a or the second display 180b.
  • the input/output server interface 522 in the first virtual machine 520 in the system 500b of FIG. 6, unlike FIG. 5, may include a display layer server 529 and a touch server 528.
  • the first virtualization machine 520 of FIG. 6 includes a system manager for overall system control, a vehicle information manager for vehicle information management, and an audio manager for audio control. , a radio manager for radio control, and the like may be further provided.
  • the input/output server interface 522 in the first virtual machine 520 in the system 500b of FIG. 6 includes a GNSS server for input/output of GPS information, a Bluetooth server for input/output of Bluetooth, a Wi-Fi server for input/output via Wi-Fi, and a camera.
  • a camera server for data input/output may be further included.
  • FIG. 7 is a diagram showing another example of a system executed in the signal processing apparatus of the present invention.
  • a system 500c executed by the processor 175 in the signal processing device 170 of FIG. 7 is almost similar to the system 500b of FIG. 6 .
  • the processor 175 of FIG. 7 executes the first to third virtual machines 520 to 540 on the hypervisor 505 in the processor 175 .
  • the display layer server 529 and the touch server 528 may be provided and executed outside the input/output server interface 522 and within the first virtual machine 520 .
  • a GNSS server for input and output of GPS information a Bluetooth server for input and output of Bluetooth, a Wi-Fi server for input and output of Wi-Fi, a camera server for input and output of camera data, etc. are provided outside the input/output server interface 522, It may be provided and executed in the first virtualization machine 520 .
  • a display manager 527, a display layer server 529, an input manager 524, and a touch server 528 may be provided and executed.
  • the input/output server interface 522 in the first virtual machine 520 in the system 500b of FIG. 6, unlike FIG. 5, may include a display layer server 529 and a touch server 528.
  • FIG. 8 to 9B are views referred to in the description of FIG. 5 .
  • FIG. 8 shows that the first to third virtual machines 520 to 540 are executed on the hypervisor 505 in the processor 175 in the system 500 according to the embodiment of the present invention, and the processor ( 175) to set the shared memory 508 based on the hypervisor 505 to the second virtual machine 530 and the third virtual machine 540 for the same data transmission. exemplify control.
  • the same image can be synchronized and displayed on the plurality of displays 180a to 180b in the vehicle.
  • the first virtualization machine 520 in the processor 175 transmits the data processed by the first virtualization machine 520 to another virtualization machine
  • the number of memories corresponding to the number of virtualization machines is not allocated.
  • one shared memory 508 can be used. Accordingly, instead of 1:1 data communication between virtual machines, 1:N data communication is possible using the shared memory 508 .
  • the first virtualization machine 520 in the processor 175 may include an input/output server interface 522 and a security manager 526 .
  • the second virtual machine 530 and the third virtual machine 540 may include input/output client interfaces 532 and 542, respectively. Accordingly, it is possible to perform high-speed data communication between a plurality of virtual machines using the input/output server interface 522 and the input/output client interfaces 532 and 542 .
  • the input/output server interface 522 in the first virtual machine 520 receives the same data transfer request from each of the input/output client interfaces 532 and 542 in the second virtual machine 530 and the third virtual machine 540, Based on this, shared data may be transmitted to the shared memory 508 through the security manager 526 .
  • 9A illustrates a more detailed diagram of shared data transmission.
  • the input/output server interface 522 in the first virtual machine 520 transmits a request for allocation of the shared memory 508 to the security manager 526 (S1).
  • the security manager 526 may allocate the shared memory 508 using the hypervisor 505 (S2) and record shared data in the shared memory 508.
  • the I/O client interfaces 532 and 542 may transmit a connection request to the I/O server interface 522 after allocating the shared memory 508 (S3).
  • the I/O server interface 522 after allocating the shared memory 508, transmits information about the shared memory 508 including key data to the I/O client interfaces 532 and 542 (S4).
  • the key data at this time may be private key data.
  • the input/output server interface 522 in the first virtualization machine 520 controls to generate a command queue for command or event processing, separate from data, for distributed processing control between virtualization machines. (S5).
  • a command queue is generated in the command queue buffer 504 in the hypervisor 505 under the control of the input/output server interface 522.
  • it is not limited thereto, and it is also possible to create in the first virtualization machine 520, not in the hypervisor 505, under the control of the input/output server interface 522.
  • each of the input/output client interfaces 532 and 542 accesses the command queue buffer 504 and receives the created command queue or information about the command queue (S6).
  • the generated command queues may be the same.
  • command queues may be transmitted to the respective input/output client interfaces 532 and 542 .
  • each of the input/output client interfaces 532 and 542 accesses the shared memory 508 based on the received key data (S5), and transfers the shared data to the shared memory 508. It can be copied or read from (S7).
  • the input/output client interfaces 532 and 542 access the shared memory 508 based on the same command queue and the same key data (S5 ), the shared data can be copied or read from the shared memory 508.
  • the shared memory 508 can be accessed by the second virtualization machine 530 and the third virtualization machine 540, and eventually, shared data can be shared.
  • the shared data is image data
  • the second virtual machine 530 and the third virtual machine 540 share the image data, and eventually the plurality of displays 180a to 180b in the vehicle share the same. Images can be synchronized and displayed.
  • FIG. 9B by the system 500 of FIG. 9A, the second virtualization machine 530 displays the image data received through the shared memory 508 on the first display 180a, and the third virtualization machine 540 ) illustrates displaying image data received through the shared memory 508 on the second display 180b.
  • an image 905a displayed on the first display 180a is synchronized with an image 905b displayed on the second display 180b, and the same images 905a and 905b are displayed at time T1, respectively.
  • the image data processed by the first virtualization machine 520 in the processor 175 is transmitted to the second virtualization machine 530 and the third virtualization machine 540 through the shared memory 508, and the image data Based on this, the first image 905a displayed on the first display 180a and the second image 905b displayed on the second display 180b may be identical to each other. Accordingly, the same image can be synchronized and displayed on the plurality of displays 180a to 180b in the vehicle.
  • FIG. 10 is a diagram showing an example of a system executed in a signal processing apparatus related to the present invention.
  • a system 500s executed in the signal processing device 170 may execute first to third virtual machines 520 , 530 , and 540 .
  • system 500s executed in the signal processing device 170 may execute the first to third virtualization machines 520 , 530 , and 540 on the hypervisor 505 in the processor 175 .
  • the first virtualization machine 520 which is a server virtualization machine, includes system management (SMa) for overall system control, system supervisors (SPV) for overall system management, and input/output virtualization (VSA). can run
  • SMa system management
  • SPV system supervisors
  • VSA input/output virtualization
  • VSA input/output virtualization
  • input/output server interface 522 of FIG. 5 may be supported.
  • the second virtualization machine 530 which is a guest virtualization machine, may operate under a Linux-based operating system, and may run a shared container and at least one service container therein to execute applications.
  • a plurality of service containers are executed.
  • a cluster HMI cluster (CTa), an HMI cluster (CTb), a Here Engine cluster (CTc) related to a digital map,
  • a mapbox engine cluster (CTd), a first new cluster (CTe), and a second new cluster (CTf) are exemplified.
  • CCPP Cluster Resource Pool
  • HMI Cluster HMI Cluster
  • HRP HMI Resource Pool
  • Cc Here Engine Cluster
  • Mapbox Mapbox
  • the engine cluster CTd can operate based on the navigation resource pool NSP, and the first new cluster CTe and the second new cluster CTf can operate based on the new feature resource pool NEP.
  • the second virtualization machine 530 which is a guest virtualization machine, may execute the container engine CEm and execute at least one service container CTa to CTf on the container engine CEm.
  • the second virtualization machine 530 which is a guest virtualization machine, executes a container engine (CEm), and executes at least one resource pool (CPP, HRP, NSP, NEP) on the container engine (CEm), At least one service container (CTa to CTf) may be executed on at least one resource pool (CPP, HRP, NSP, NEP).
  • CEm container engine
  • CPP, HRP, NSP, NEP resource pool
  • CTa to CTf may be executed on at least one resource pool (CPP, HRP, NSP, NEP).
  • the second virtualization machine 530 which is a guest virtualization machine, may execute a container manager (CMa) for management of a container engine (CEm) or at least one service container (CTa to CTf).
  • CMa container manager
  • CEm container engine
  • CTa to CTf service container
  • the second virtualization machine 530 which is a guest virtualization machine, may execute a window manager (WMa) for window management.
  • WMa window manager
  • the second virtualization machine 530 which is a guest virtualization machine, may execute an application manager (AMa) for application management.
  • AMa application manager
  • the third virtualization machine 540 which is a guest virtualization machine, can operate under an Android-based operating system, and requires a physical device driver 541 and an input/output client to execute applications.
  • An interface 542, APIs 543 that control the input/output client interface 542, a framework including an activity manager (ACMb) and an activity manager (WMb), an HMI, and the like can be executed.
  • At least one container in the second virtualization machine 530 may be one selected, installed, and executed among a plurality of containers CT1 to CT3 in the server 60 .
  • FIG. 11 is a diagram showing an example of a system executed in a signal processing apparatus according to another embodiment of the present invention.
  • a processor 175 in a system 500s executed in a signal processing device 170 may execute first virtual machine to second virtual machine 520 or 530. .
  • the first virtualization machine 520 which is a server virtualization machine, may execute system supervisors (SPV) and input/output virtualization (VSA) for overall system management. Meanwhile, input/output virtualization (VSA) and input/output server interface 522 of FIG. 5 may be supported.
  • SPV system supervisors
  • VSA input/output virtualization
  • the second virtualization machine 530 which is a guest virtualization machine, may operate under a Linux-based operating system and may execute a container (COA) to execute an application.
  • COA container
  • At least one of the first virtual machine to the second virtual machine 520 to 530 executes the container engine CEm, and on the container engine CEm, the shared container SCO and at least one service container COA ⁇ COC).
  • the second virtualization machine 530 which is a guest virtualization machine, may further execute a container manager CMa for management of the container COA.
  • the plurality of service containers COA to COC in the second virtualization machine 530 may be selected, installed, and executed by each of the plurality of containers CT1 to CT3 in the server 60 of FIG. 10 .
  • a shared layer (SLOa) in a shared container (SCO) is utilized for efficient installation and efficient execution of a plurality of service containers (COA to COC).
  • each container (CT1 to CT3) includes base image layers (BLa, BLb, BLc) and writable layers (WLa, WLb, WLc) on the base image layers (BLa, BLb, BLc), and is shared.
  • the container SCO includes a data share application (DSA) and at least one sharing layer (SLOa, SLOb) on the data share application (DSA).
  • the plurality of service containers (COA to COC), before executing at least one service container (COA to COC), the shared layer (SLOa) in the shared container (SCO), at least one It is added in the service container (COA ⁇ COC), and after adding the shared layer (SLOa), at least one service container (COA ⁇ COC) is executed, and the shared container (SCO) includes at least one service container (COA ⁇ COC).
  • the shared layer (SLOa) is retrieved.
  • the plurality of service containers do not have to continuously store the data included in the shared layer (SLOa)
  • the storage space at the time of installation is reduced, and even during execution, the shared layer (SLOa)
  • resources can be efficiently managed.
  • an application based on a service container can be efficiently executed.
  • applications can be run efficiently by utilizing a shared container (SCO).
  • SCO shared container
  • the first service container has a base image layer (BLa) and a writable layer (WLa), and shares the first shared layer (SLOb) before execution of the first service container (COA). It is received from the container (SCO).
  • BLa base image layer
  • WLa writable layer
  • SLOb first shared layer
  • the first service container COA temporarily includes the base image layer BLa, the first shared layer SLOb on the base image layer BLa, and the writable layer WLa on the first shared layer SLOb. ) may be included.
  • the first service container executes the base image layer (BLa), the first sharing layer (SLOb), and the writable layer (WLa). Accordingly, the application can be smoothly and efficiently performed through the first service container (COA).
  • the shared container (SCO) retrieves the first shared layer (SLOb) from the first service container (COA). Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO). In addition, it is possible to minimize the storage space when installing the service container.
  • the second service container has a base image layer (BLb) and a writable layer (WLb), but before executing the second service container (COB), the second shared layer (SLOa) is a shared container.
  • the second shared layer SLOa is executed on the base image layer BLb
  • the writable layer WLb is executed on the second shared layer SLOa. Accordingly, the application can be smoothly and efficiently performed through the second service container (COB).
  • the shared container SCO retrieves the second shared layer SLOa from the second service container COB. Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO). In addition, it is possible to minimize the storage space when installing the service container.
  • the third service container has a base image layer (BLc) and a writable layer (WLc), and shares the second shared layer (SLOa) before execution of the third service container (COC).
  • the second shared layer SLOa is executed on the base image layer BLc
  • the writable layer WLc is executed on the second shared layer SLOa. Accordingly, the application can be smoothly and efficiently performed through the third service container (COC).
  • the shared container (SCO) retrieves the second shared layer (SLOa) from the second service container (COB). Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO). In addition, it is possible to minimize the storage space when installing the service container.
  • a first service container (COA) and a second service container (COB) among at least one service container (COA to COC) are executed.
  • the first shared layer (SLOb) and the second shared layer (SLOa) in the shared container (SCO) are added in the first service container (COA) and the second service container (COB), respectively, and the first service container After adding (COA) and the second service container (COB), the first service container (COA) and the second service container (COB) are executed, and the first service container (COA) and the second service container (COB) are executed.
  • the first shared layer SLOb and the second shared layer SLOa may be retrieved, respectively. Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO).
  • a second service container (COB) and a third service container (COC) among at least one service container (COA to COC) are executed.
  • a common shared layer (SLOa) in the shared container (SCO) is added into the second service container (COB) and the third service container (COC), respectively, and after adding the common shared layer (SLOa), the first The 2 Service Container (COB) and the 3 Service Container (COC) are executed, and after the 2 Service Container (COB) and the 3 Service Container (COC) are executed, the common shared layer (SLOa) can be retrieved. . Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO).
  • the shared container includes a shared layer (SLOa) including augmented reality (AR) data, virtual reality (VR) data, or fusion reality (MR) data in at least one service container (COA to COC).
  • SLOa shared layer
  • AR augmented reality
  • VR virtual reality
  • MR fusion reality
  • COA to COC service container
  • the shared layer SLOa in the shared container SCO may include binary files, library files, and configuration files required for applications. Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO).
  • FIG. 12 to 17 are views referred to in the description of FIG. 11 .
  • FIG. 12 is a diagram illustrating that a camera service container is installed and executed.
  • the system 500sa of FIG. 12 is similar to the system 500s of FIG. 11, but there is a difference in that the camera service container (COA) among at least one service container (COA to COC) is executed. .
  • COA camera service container
  • COC service container
  • the processor 175 in the system 500sa executes the first to second virtual machines 520 and 530, and the second virtual machine 530 uses a camera service container (COA) and a shared container (SCO). can run
  • COA camera service container
  • SCO shared container
  • the second virtualization machine 520 may directly access the video device VDC when the detection engine layer DEL does not exist in the camera service container COA.
  • the camera service container (COA) directly accesses the video device (VDC) to transmit data or receive data.
  • VDC video device
  • the camera service may transmit data or receive data by directly accessing the video device (VDC).
  • the video device VDC at this time may be a hardware device or a driving driver for driving the hardware device.
  • the camera service container (COA) may access the video device (VDC) by using the detection engine in the detection engine layer (DEL). Accordingly, it is possible to efficiently execute applications based on the service container.
  • the detection engine layer (DEL) in the camera service container (COAb) may include a virtual video device (VVD) and a detection engine (DEG).
  • VVD virtual video device
  • DEG detection engine
  • the detection engine DEG at this time may be generated based on data from the data sharing application DSA in the shared container SCOb and the detection engine layer DELa among the detection engine layers DELa.
  • the processor 175 or the signal processing device 170 when there is no detection engine layer (DEL) in the camera service container (COAb), the detection engine layer (DEL) in the shared container (SCOb) ) may be added in the camera service container (COAb), and the video device (VDC) may be accessed using the detection engine (DEG) in the detection engine layer (DEL). Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO).
  • FIG. 13 is a diagram illustrating that a plurality of service containers are divided into groups.
  • a system 500sb of FIG. 13 is similar to the system 500s of FIG. 11, but includes a first service container COA and a second service container COB among a plurality of service containers COA to COC. There is a difference in that the shared container (SCob) is the first group (PDa), and the third service container (COC) is separated into the second group (PDb).
  • SCob shared container
  • COC third service container
  • the processor 175 in the system 500sb executes the first to second virtual machines 520 and 530, and the second virtual machine 530 includes a plurality of service containers COA to COC and You can run a shared container (SCO).
  • SCO shared container
  • the shared container SCO is the first group among the plurality of service containers.
  • the sharing layer is provided only to the service containers COA and COB of group 1 PDa, and the sharing layer is not provided to the service containers COC of the first group PDa and the second group PDb. Accordingly, it is possible to efficiently execute applications within the same group (PDa) by utilizing the shared container (SCO).
  • a detection engine layer DELa is exemplified as an example of a shared layer.
  • the shared container (SCO) may include a data sharing application (DSA) and a detection engine layer (DELa), which is an example of a shared layer, into a first service container (COA) and a second service container (COB).
  • a detection engine layer (DELa) may be provided as a shared layer. Accordingly, it is possible to efficiently execute applications within the same group (PDa) by utilizing the shared container (SCO).
  • the processor 175 may execute a container manager (CMa) for managing at least one service container (COA to COC), and the shared container (SCO) may execute a data sharing application (DSA). Accordingly, it is possible to efficiently run an application by utilizing a shared container (SCO).
  • CMa container manager
  • COA to COC service container
  • SCO shared container
  • DSA data sharing application
  • the service container manager may perform at least one of lifecycle management, execution time management, running management, or group management of at least one service container (COA to COC). Accordingly, it is possible to efficiently execute applications based on the service container.
  • the data sharing application DSA may perform sharing of a specific layer or restriction of access rights to the containers COA and COB within the group PDa. Accordingly, it is possible to efficiently execute applications based on the service container. In particular, applications can be run efficiently by utilizing a shared container (SCO).
  • SCO shared container
  • FIG. 14 is a flowchart illustrating the operation of the signal processing device 170 according to an embodiment of the present invention.
  • the processor 175 or the signal processing device 170 installs a shared container (SCO) (S1405).
  • SCO shared container
  • the processor 175 or the signal processing device 170 may install a shared container (SCO) in at least one of the first virtual machine and the second virtual machine 520 to 530 .
  • SCO shared container
  • a shared container (SCO) is installed in the second virtual machines 520 to 530.
  • the processor 175 or the signal processing device 170 downloads and installs the first service container (COA) from the server 60 (S1410).
  • COA first service container
  • the processor 175 or the signal processing device 170 may install a first service container (COA) in at least one of the first virtual machine and the second virtual machine 520 to 530 .
  • COA first service container
  • the first service container (COA) is installed in the second virtual machines 520 to 530.
  • the installed first service container may include a base image layer (BLa) and a writable layer (WLa) on the base image layer (BLa).
  • the processor 175 or the signal processing device 170 may check a layer within the first service container (COA) before executing the first service container (COA) (S1415).
  • the container manager CMa may check whether a shared layer exists in the first service container COA (S1420).
  • the processor 175 or the signal processing device 170 requests sharing of the shared layer to the shared container (SCO) (S1425).
  • the shared container (SCO) in the processor 175 or the signal processing unit 170 performs an access right check on the sharing request of the shared layer, and approves it if applicable (S1430).
  • the shared container (SCO) in the processor 175 or the signal processing unit 170 shares the shared layer at a local location (S1435).
  • the processor 175 or the signal processing device 170 adds a shared layer in the first service container (COA) and executes the shared layer (COA) including the added shared layer (S1440).
  • SLOb a first shared layer
  • COA first service container
  • COA first service container
  • the shared container (SCO) in the processor 175 or the signal processing device 170 ends execution of the first service container (COA) (S1445).
  • the container manager (CMa) In response to the execution termination of the first service container (COA), the container manager (CMa) requests the shared container (SCO) to retrieve the shared layer (S1450).
  • the shared container (SCO) in the processor 175 or the signal processing unit 170 retrieves the shared layer (SLO) in the first service container (COA) in response to the request for retrieval of the shared layer (S1455). .
  • the shared container (SCO) may retrieve the first shared layer (SLOb) in the first service container (COA) in response to the request for retrieval of the shared layer.
  • FIG. 15 is a diagram illustrating a monitor service layer as a shared layer.
  • the system 500sc of FIG. 15 is similar to the system 500s of FIG. 11, but monitor service as a shared layer when the second service container (COB) and the third service container (COC) are executed.
  • COB second service container
  • COC third service container
  • MSL layer
  • the processor 175 in the system 500sc executes the first to second virtual machines 520 and 530, and the second virtual machine 530 includes a second service container (COB) and a third service container. (COC) and shared containers (SCOc).
  • COB second service container
  • COC third service container
  • SCOc shared containers
  • the second virtualization machine 520 monitors the service layer (MSL) from the shared container (SCOc) when there is no monitor service layer (MSL) as a shared layer in the second service container (COB) and the third service container (COC). MSL) can be received and added.
  • the shared container may perform an access right check on the sharing request of the monitor service layer (MSL) and approve it if applicable.
  • the second service container COB may be executed after adding the monitor service layer SLb between the base image layer BLb and the writable layer WLb.
  • the third service container (COC) may be executed after adding the monitor service layer (SLc) between the base image layer (BLc) and the writable layer (WLc).
  • the shared container may include the monitor service layer (MSL), and the monitor service layer (MSL) may be provided as at least one service container (COB to COC). Accordingly, applications can be efficiently executed by utilizing the shared container (SCOc).
  • 16 and 17 are diagrams illustrating a network interface layer as a shared layer.
  • the system 500t of FIG. 16 is similar to the system 500s of FIG. 11, but a network interface layer (NIL) is added as a shared layer when the second service container (COB) is executed. There is a difference in being.
  • NIL network interface layer
  • COB second service container
  • the processor 175 in the system 500t executes the first to second virtual machines 520 and 530, and the second virtual machine 530 includes a second service container COB and a shared container SCOd. ) can be executed.
  • the second virtualization machine 520 may receive and add the network interface layer (NIL) from the shared container (SCOd). there is.
  • the shared container may perform an access right check on the sharing request of the network interface layer (NIL) and approve it if applicable.
  • the second service container COB may be executed after adding the network interface layer SLb between the base image layer BLb and the writable layer WLb.
  • the shared container may include a network interface layer (NIL) and provide the network interface layer (NIL) to at least one service container (COB). Accordingly, applications can be efficiently executed by utilizing the shared container (SCOd).
  • NIL network interface layer
  • COB service container
  • the shared container (SCOd) includes a network interface layer (NIL), provides the network interface layer (NIL) as at least one service container (COB), and provides a service container ( COB) may transmit data to another virtualization machine 540 or another signal processing device 170b using a network interface layer (NIL). Accordingly, applications can be efficiently executed by utilizing the shared container (SCOd).
  • NIL network interface layer
  • COB service container
  • a network interface layer is added in the second service container (COB), and the second service container (COB) is a third virtualization machine through the container manager (CMa) and input/output virtualization (VSA). It is exemplified that a network interface layer (NIL) is transmitted to a predetermined service (SEc) in 540 as a shared layer. Accordingly, it is possible to transfer the shared layer to other virtual machines.
  • the system 500tb of FIG. 17 is similar to the system 500t of FIG. 16, and in particular, a network interface layer (NIL) is added as a shared layer when the second service container (COB) is executed. It is the same as being executed.
  • NIL network interface layer
  • the system 500tb of FIG. 17 has a second server virtual machine 520b and a second guest virtual machine 530b on a separate second signal processing device 170b. ) is executed more.
  • the network interface layer (NIL) is added in the second service container (COB), and the second service container (COB) includes the container manager (CMa), the input/output virtualization (VSA), and the second input/output virtualization (VSAb).
  • the network interface layer (NIL) may be transmitted as a shared layer to a predetermined service SEcb in the second guest virtual machine 530b executed on d of the second signal processing device 170b. Accordingly, the shared layer can be transmitted to other signal processing devices 170b as well.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

본 발명은 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치에 관한 것이다. 본 발명과 관련한 신호 처리 장치는, 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하고, 프로세서는, 제1 가상화 머신 내지 제2 가상화 머신을 실행하며, 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 제2 가상화 머신은 게스트 가상화 머신으로 동작하며, 제1 가상화 머신 내지 제2 가상화 머신 중 적어도 하나는, 컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너 실행 전에, 공유 컨테이너 내의 공유 레이어를, 적어도 하나의 서비스 컨테이너 내에 추가하고, 공유 레이어 추가 이후, 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 공유 레이어를 회수한다. 이에 의해, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.

Description

신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
본 발명은 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치에 관한 것이며, 더욱 상세하게는 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있는 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 차량 내부에 차량용 디스플레이 장치가 탑재되고 있다.
예를 들어, 클러스터 등에 디스플레이가 배치되어, 각 종 정보를 표시한다. 한편, 차량 주행 정보 등의 표시를 위해, 클러스터와 별도로, AVN(Audio Video Navigation) 디스플레이 등 다양한 디스플레이가 차량에 장착되는 추세이다.
아울러, 차량용 디스플레이 장치를 통해 다양한 애플리케이션 서비스를 제공하기 위한 연구가 수행되고 있다.
미국공개특허공보 US20190250610호(이하에서 인용문헌 이라 함)에는, 차량 환경에서 확장 가능한 아키텍쳐를 위한 시스템 및 방법이 개시된다.
그러나, 인용문헌에 의하면, 다양한 애플리케이션 서비스 제공을 위해, 각 애플리케이션과 관련한 데이터를 모두 저장하고, 실행시 이를 활용하여야 하므로, 저장 용량 부담이 커지며, 신호 처리 효율이 저하되는 문제가 있다.
본 발명의 목적은, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있는 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치를 제공함에 있다.
한편, 본 발명의 다른 목적은, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있는 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치를 제공함에 있다.
한편, 본 발명의 또 다른 목적은, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있는 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치를 제공함에 있다.
한편, 본 발명의 또 다른 목적은, 복수의 가상화 머신의 운영체제가 다르더라도, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있는 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명과 관련한 신호 처리 장치는, 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하고, 프로세서는, 제1 가상화 머신 내지 제2 가상화 머신을 실행하며, 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 제2 가상화 머신은 게스트 가상화 머신으로 동작하며, 제1 가상화 머신 내지 제2 가상화 머신 중 적어도 하나는, 컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너 실행 전에, 공유 컨테이너 내의 공유 레이어를, 적어도 하나의 서비스 컨테이너 내에 추가하고, 공유 레이어 추가 이후, 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 공유 레이어를 회수한다.
한편, 제2 가상화 머신은 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행할 수 있다.
한편, 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 공유 컨테이너 내의 제1 공유 레이어와 제2 공유 레이어를, 제1 서비스 컨테이너와 제2 서비스 컨테이너 내에 각각 추가하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너의 추가 이후, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 제1 공유 레이어와 제2 공유 레이어를 회수할 수 있다.
한편, 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 공유 컨테이너 내의 공통의 공유 레이어를, 제1 서비스 컨테이너와 제2 서비스 컨테이너 내에 각각 추가하고, 공통의 공유 레이어의 추가 이후, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 공통의 공유 레이어를 회수할 수 있다.
한편, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 비디오 디바이스에 접속하며, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 있는 경우, 검출 엔진 레이어 내의 검출 엔진을 이용하여 비디오 디바이스에 접속할 수 있다.
한편, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 공유 컨테이너 내의 검출 엔진 레이어를, 카메라 서비스 컨테이너 내에 추가하고, 검출 엔진 레이어 내의 검출 엔진을 이용하여 비디오 디바이스에 접속할 수 있다.
한편, 공유 컨테이너는, 복수의 서비스 컨테이너 중 제1 그룹의 서비스 컨테이너에만 공유 레이어를 제공하고, 제1 그룹과 다른 그룹의 서비스 컨테이너에는 공유 레이어를 제공하지 않는다.
한편, 프로세서는, 적어도 하나의 서비스 컨테이너의 관리를 위한 컨테이너 매니저를 실행하고, 공유 컨테이너는, 데이터 공유 어플리케이션을 실행할 수 있다.
한편, 서비스 컨테이너 매니저는, 적어도 하나의 서비스 컨테이너의 라이프사이클 관리, 실행 시점 관리, 실행 중 관리 또는 그룹 내 관리 중 적어도 하나를 수행할 수 있다.
한편, 데이터 공유 어플리케이션은, 그룹 내 컨테이너에 대한 특정 레이어 공유 또는, 접근 권한 제한을 수행할 수 있다.
한편, 공유 컨테이너는, 모니터 서비스 레이어를 포함하고, 모니터 서비스 레이어를, 적어도 하나의 서비스 컨테이너로 제공할 수 있다.
한편, 공유 컨테이너는, 네트워크 인터페이스 레이어를 포함하고, 네트워크 인터페이스 레이어를, 적어도 하나의 서비스 컨테이너로 제공하며, 네트워크 인터페이스 레이어가 제공된 서비스 컨테이너는, 네트워크 인터페이스 레이어를 이용하여, 다른 가상화 머신 또는 다른 신호 처리 장치로 데이터를 전송할 수 있다.
한편, 공유 컨테이너는, 증강현실(AR) 데이터, 가상현실(VR) 데이터, 또는 융합현실(MR) 데이터를 포함하는 공유 레이어를 적어도 하나의 서비스 컨테이너 내에 제공할 수 있다.
한편, 공유 컨테이너 내의 공유 레이어는, 애플리케이션을 위해 필요한 바이너리 파일, 라이브러리 파일, 및 컨피그레이션 파일을 포함할 수 있다.
한편, 서비스 컨테이너는, 베이스 이미지 레이어, 베이스 이미지 레이어 상의 공유 레이어, 공유 레이어 상의 쓰기 가능 레이어를 포함할 수 있다.
한편, 프로세서는, 하이퍼바이저를 실행하며, 하이퍼바이저 상에, 제1 가상화 머신 내지 제3 가상화 머신을 실행할 수 있다.
한편, 프로세서는, 제2 가상화 머신 내의 컨테이너 엔진을 실행하고, 컨테이너 엔진 상에서 서비스 컨테이너를 실행할 수 있다.
한편, 프로세서는, 서버로부터 제1 서비스 컨테이너를 다운로드하여 설치하고, 제1 서비스 컨테이너 내에 공유 레이어를 추가할 수 있다.
한편, 제2 가상화 머신과 제3 가상화 머신은 서로 다른 운영 체제로 실행될 수 있다.
본 발명의 일 실시예에 따른 차량용 디스플레이 장치는, 제1 디스플레이와, 제2 디스플레이와, 제1 디스플레이 및 제2 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하는 신호 처리 장치를 구비하고, 신호 처리 장치는, 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하고, 프로세서는, 제1 가상화 머신 내지 제2 가상화 머신을 실행하며, 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 제2 가상화 머신은 게스트 가상화 머신으로 동작하며, 제1 가상화 머신 내지 제3 가상화 머신 중 적어도 하나는, 컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너 실행 전에, 공유 컨테이너 내의 공유 레이어를, 적어도 하나의 서비스 컨테이너 내에 추가하고, 공유 레이어 추가 이후, 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 공유 레이어를 회수한다.
본 발명과 관련한 신호 처리 장치는, 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하고, 프로세서는, 제1 가상화 머신 내지 제2 가상화 머신을 실행하며, 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 제2 가상화 머신은 게스트 가상화 머신으로 동작하며, 제1 가상화 머신 내지 제2 가상화 머신 중 적어도 하나는, 컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너 실행 전에, 공유 컨테이너 내의 공유 레이어를, 적어도 하나의 서비스 컨테이너 내에 추가하고, 공유 레이어 추가 이후, 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 공유 레이어를 회수한다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
한편, 제2 가상화 머신은 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 공유 컨테이너 내의 제1 공유 레이어와 제2 공유 레이어를, 제1 서비스 컨테이너와 제2 서비스 컨테이너 내에 각각 추가하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너의 추가 이후, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 제1 공유 레이어와 제2 공유 레이어를 회수할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 공유 컨테이너 내의 공통의 공유 레이어를, 제1 서비스 컨테이너와 제2 서비스 컨테이너 내에 각각 추가하고, 공통의 공유 레이어의 추가 이후, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 공통의 공유 레이어를 회수할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 비디오 디바이스에 접속하며, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 있는 경우, 검출 엔진 레이어 내의 검출 엔진을 이용하여 비디오 디바이스에 접속할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 공유 컨테이너 내의 검출 엔진 레이어를, 카메라 서비스 컨테이너 내에 추가하고, 검출 엔진 레이어 내의 검출 엔진을 이용하여 비디오 디바이스에 접속할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너는, 복수의 서비스 컨테이너 중 제1 그룹의 서비스 컨테이너에만 공유 레이어를 제공하고, 제1 그룹과 다른 그룹의 서비스 컨테이너에는 공유 레이어를 제공하지 않는다. 이에 따라, 공유 컨테이너를 활용하여 동일 그룹 내의 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 프로세서는, 적어도 하나의 서비스 컨테이너의 관리를 위한 컨테이너 매니저를 실행하고, 공유 컨테이너는, 데이터 공유 어플리케이션을 실행할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 서비스 컨테이너 매니저는, 적어도 하나의 서비스 컨테이너의 라이프사이클 관리, 실행 시점 관리, 실행 중 관리 또는 그룹 내 관리 중 적어도 하나를 수행할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 데이터 공유 어플리케이션은, 그룹 내 컨테이너에 대한 특정 레이어 공유 또는, 접근 권한 제한을 수행할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너는, 모니터 서비스 레이어를 포함하고, 모니터 서비스 레이어를, 적어도 하나의 서비스 컨테이너로 제공할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너는, 네트워크 인터페이스 레이어를 포함하고, 네트워크 인터페이스 레이어를, 적어도 하나의 서비스 컨테이너로 제공하며, 네트워크 인터페이스 레이어가 제공된 서비스 컨테이너는, 네트워크 인터페이스 레이어를 이용하여, 다른 가상화 머신 또는 다른 신호 처리 장치로 데이터를 전송할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너는, 증강현실(AR) 데이터, 가상현실(VR) 데이터, 또는 융합현실(MR) 데이터를 포함하는 공유 레이어를 적어도 하나의 서비스 컨테이너 내에 제공할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너 내의 공유 레이어는, 애플리케이션을 위해 필요한 바이너리 파일, 라이브러리 파일, 및 컨피그레이션 파일을 포함할 수 있다. 이에 따라, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 서비스 컨테이너는, 베이스 이미지 레이어, 베이스 이미지 레이어 상의 공유 레이어, 공유 레이어 상의 쓰기 가능 레이어를 포함할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 프로세서는, 하이퍼바이저를 실행하며, 하이퍼바이저 상에, 제1 가상화 머신 내지 제3 가상화 머신을 실행할 수 있다. 이에 따라, 복수의 가상화 머신을 효율적으로 실행할 수 있게 된다.
한편, 프로세서는, 제2 가상화 머신 내의 컨테이너 엔진을 실행하고, 컨테이너 엔진 상에서 서비스 컨테이너를 실행할 수 있다. 이에 따라, 서비스 컨테이너를 효율적으로 실행할 수 있게 된다.
한편, 프로세서는, 서버로부터 제1 서비스 컨테이너를 다운로드하여 설치하고, 제1 서비스 컨테이너 내에 공유 레이어를 추가할 수 있다. 이에 따라, 제1 서비스 컨테이너를 효율적으로 설치하여 실행할 수 있게 된다. 아울러, 제1 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
한편, 제2 가상화 머신과 제3 가상화 머신은 서로 다른 운영 체제로 실행될 수 있다. 한편, 복수의 가상화 머신의 운영체제가 다르더라도, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
본 발명의 일 실시예에 따른 차량용 디스플레이 장치는, 제1 디스플레이와, 제2 디스플레이와, 제1 디스플레이 및 제2 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하는 신호 처리 장치를 구비하고, 신호 처리 장치는, 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하고, 프로세서는, 제1 가상화 머신 내지 제2 가상화 머신을 실행하며, 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 제2 가상화 머신은 게스트 가상화 머신으로 동작하며, 제1 가상화 머신 내지 제3 가상화 머신 중 적어도 하나는, 컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너 실행 전에, 공유 컨테이너 내의 공유 레이어를, 적어도 하나의 서비스 컨테이너 내에 추가하고, 공유 레이어 추가 이후, 적어도 하나의 서비스 컨테이너를 실행하고, 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 공유 레이어를 회수한다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
도 1a는 차량 외부 및 차량 내부의 일예를 도시한 도면이다.
도 1b는 차량 내부의 다른 예를 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량용 디스플레이 장치의 외관을 도시한 도면이다.
도 3은 도 2의 차량용 디스플레이 장치의 내부 블록도의 일예를 예시한다.
도 4는 본 발명와 관련한 신호 처리 장치에서 실행되는 시스템을 도시한 도면이다.
도 5는 본 발명의 신호 처리 장치에서 실행되는 시스템의 일예를 도시한 도면이다.
도 6은 본 발명의 신호 처리 장치에서 실행되는 시스템의 다른 예를 도시한 도면이다.
도 7은 본 발명의 신호 처리 장치에서 실행되는 시스템의 또 다른 예를 도시한 도면이다.
도 8 내지 도 9b는 도 5의 설명에 참조되는 도면이다.
도 10은 본 발명과 관련한 신호 처리 장치에서 실행되는 시스템의 일 예를 도시한 도면이다.
도 11은 본 발명의 일 실시예에 따른 신호 처리 장치에서 실행되는 시스템의 일 예를 도시한 도면이다.
도 12 내지 도 17는 도 11의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1a는 차량 외부 및 차량 내부의 일예를 도시한 도면이다.
도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 복수의 바퀴(103FR,103FL,103RL,..), 차량(200)의 진행 방향을 조절하기 위한 스티어링휠(150)에 의해 동작한다.
한편, 차량(200)은, 차량 전방의 영상 획득을 위한 카메라(195) 등을 더 구비할 수 있다.
한편, 차량(200)은, 내부에 영상, 정보 등의 표시를 위한 복수의 디스플레이(180a,180b)를 구비할 수 있다.
도 1a에서는, 복수의 디스플레이(180a,180b)로, 클러스터 디스플레이(180a), AVN(Audio Video Navigation) 디스플레이(180b)를 예시한다. 그 외, HUD(Head Up Display) 등도 가능하다.
한편, AVN(Audio Video Navigation) 디스플레이(180b)는, 센터 정보 디스플레이(Center Information Dislpay)라 명명할 수도 있다.
한편, 본 명세서에서 기술되는 차량(200)은, 동력원으로서 엔진을 구비하는 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
도 1b는 차량 내부의 다른 예를 도시한 도면이다.
도면을 참조하면, 차량(200) 내부에는, 클러스터 디스플레이(180a), AVN(Audio Video Navigation) 디스플레이(180b), 뒷 좌석 엔터네인먼트(Rear Seat Entertainment) 디스플레이(180c,180d), 룸미러 디스플레이(미도시) 등이 장착될 수 있다.
도 2는 본 발명의 실시예에 따른 차량용 디스플레이 장치의 외관을 도시한 도면이다.
본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 복수의 디스플레이(180a~180b), 및 복수의 디스플레이(180a~180b)에 영상, 정보 등을 표시하기 위한 신호 처리를 수행하는 신호 처리 장치(170)를 구비할 수 있다.
복수의 디스플레이(180a~180b) 중 제1 디스플레이(180a)는, 주행 상태, 동작 정보 등의 표시를 위한 클러스터 디스플레이(180a)이고, 제2 디스플레이(180b)는, 챠량 운행 정보, 네비게이션 지도, 다양한 엔테테인먼트 정보 또는 영상의 표시를 위한 AVN(Audio Video Navigation) 디스플레이(180b)일 수 있다.
신호 처리 장치(170)는, 내부에 프로세서(175)를 구비하며, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540)을 실행할 수 있다.
제2 가상화 머신(530)은 제1 디스플레이(180a)를 위해 동작하며, 제3 가상화 머신(540)은, 제2 디스플레이(180b)를 위해 동작할 수 있다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 동일한 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어할 수 있다. 이에 따라, 차량 내의 제1 디스플레이(180a)와 제2 디스플레이(180b)에 동일한 정보 또는 동일한 영상을 동기화하여 표시할 수 있게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 데이터 분담 처리를 위해, 제2 가상화 머신(530)과 제3 가상화 머신(540)에 데이터의 적어도 일부를 공유한다. 이에 따라, 차량 내의 복수의 디스플레이를 위한 복수의 가상화 머신에서 데이터를 분담하여 처리할 수 있게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 차량의 휠 속도 센서 데이터를 수신하고, 처리하여, 제2 가상화 머신(530) 또는 제3 가상화 머신(540) 중 적어도 하나로, 처리된 휠 속도 센서 데이터를 전송할 수 있다. 이에 따라, 차량의 휠 속도 센서 데이터를, 적어도 하나의 가상화 머신 등에 공유할 수 있게 된다.
한편, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 주행 상태 정보, 간이 네비게이션 정보, 다양한 엔테테인먼트 정보 또는 영상의 표시를 위한 뒷 좌석 엔터네인먼트(Rear Seat Entertainment) 디스플레이(180c)를 더 구비할 수 있다.
신호 처리 장치(170)는, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540) 외에 추가로 제4 가상화 머신(미도시)를 실행하여, RSE 디스플레이(180c)를 제어할 수 있다.
이에 따라, 하나의 신호 처리 장치(170)를 이용하여, 다양한 디스플레이(180a~180c)를 제어할 수 있게 된다.
한편, 복수의 디스플레이(180a~180c) 중 일부는, 리눅스 OS 기반 하에 동작하며, 다른 일부는 웹 OS 기반 하에 동작할 수 있다.
한편, 본 발명의 실시예에 따른 신호 처리 장치(170)는, 다양한 운영 체제(Operating system;OS) 하에 동작하는 복수의 디스플레이(180a~180b 또는 180a~180c) 중 어느 하나에서 터치 입력(Touch)이 있는 경우, 터치 입력에 대한 처리를 신속하고 정확하게 수행하도록 제어할 수 있다.
한편, 도 2에서는, 제1 디스플레이(180a)에, 차량 속도 인디케이터(212a), 차량 내부 온도 인디케이터(213a)가 표시되고, 제2 디스플레이(180b)에, 복수의 애플리케이션과 차량 속도 인디케이터(212b)와 차량 내부 온도 인디케이터(213b)를 포함하는 홈 화면(222)이 표시되고, 제3 디스플레이(180c)에, 복수의 애플리케이션과 차량 내부 온도 인디케이터(213c)를 포함하는 제2 홈 화면(222b)이 표시되는 것을 예시한다.
도 3은 본 발명의 실시예에 따른 차량용 디스플레이 장치의 내부 블록도의 일예를 예시한다.
도면을 참조하면, 본 발명의 실시예에 따른 차량용 디스플레이 장치(100)는, 입력부(110), 통신부(120), 인터페이스(130), 신호 처리 장치(170), 복수의 디스플레이(180a~180c), 오디오 출력부(185), 전원 공급부(190)를 구비할 수 있다.
입력부(110)는, 버튼 입력, 터치 입력 등을 위한 물리적인 버튼, 패드 등을 구비할 수 있다.
한편, 입력부(110)는, 디스플레이(180a,180b,180c)의 터치 입력을 센싱하기 위한 터치 센서(미도시)를 구비할 수 있다.
한편, 입력부(110)는, 사용자 음성 입력을 위한 마이크(미도시)를 구비할 수 있다.
통신부(120)는, 이동 단말기(800) 또는 서버(900)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다.
특히, 통신부(120)는, 차량 운전자의 이동 단말기(800)와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi, WiFi Direct, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(120)는, 이동 단말기(800) 또는 서버(900)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. 이를 위해, 통신부(120)는, 이동 통신 모듈(미도시)를 구비할 수 있다.
인터페이스(130)는, ECU(770) 또는 센서 장치(760)로부터, 센서 정보 등을 수신하고, 수신한 정보를 신호 처리 장치(170)로 전송할 수 있다.
여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
이러한 센서 정보는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.
한편, 인터페이스(130)는, 카메라(195) 또는 라이더(미도시) 또는 레이더(미도시) 등으로부터 차량 전방 영상 데이터, 차량 측방 영상 데이터, 차량 후방 영상 데이터, 차량 주변 장애물 거리 정보 등을 수신하고, 수신한 정보를 신호 처리 장치(170)로 전송할 수 있다.
오디오 출력부(185)는, 신호 처리 장치(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다.
전원 공급부(190)는, 신호 처리 장치(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
신호 처리 장치(170)는, 차량용 디스플레이 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다.
한편, 신호 처리 장치(170)는, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있다.
신호 처리 장치(170)는, 차량용 디스플레이(180a,180b,180c)를 위한 신호 처리를 수행하는 프로세서(175), 각종 데이터를 저장하는 제1 메모리(140a)와 제2 메모리(140b), 마이컴(135)을 구비할 수 있다.
제1 메모리(140a)는, 비휘발성 메모리로서, 대기 모드 또는 전원 오프시에도, 각 종 데이터를 저장할 수 있다.
예를 들어, 제1 메모리(140a)는, 대기 모드로의 진입에 기초하여, 복수의 가상화 머신(510~550) 중 어느 하나의 가상화 머신에서 실행되는 제1 애플리케이션에 대응하는 파일을 저장할 수 있다.
다른 예로, 제1 메모리(140a)는, 운영 체제(OS)를 저장할 수 있다.
한편, 제1 메모리(140a)는, 신호 처리 장치(170)의 처리 또는 제어를 위한 프로그램 등, 차량용 디스플레이 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
한편, 제2 메모리(140b)는, 휘발성 메모리로서, 대기 모드 또는 전원 오프시에 각 종 데이터가 지워지며, 액티브 모드에서, 일시적으로 데이터를 저장할 수 있다.
예를 들어, 제2 메모리(140b)는, 대기 모드에서 액티브 모드로 전환에 기초하여, 제1 메모리(140a)에 저장된 파일을 로딩할 수 있다.
다른 예로, 제2 메모리(140b)는, 대기 모드에서 액티브 모드로 전환에 기초하여, 제1 메모리(140a)에 저장된 운영 체제(OS)를 로딩할 수 있다.
한편, 프로세서(175)는, 하이퍼바이저(도 5의 505)를 실행할 수 있다.
한편, 프로세서(175)는, 프로세서(175) 내의 하이퍼바이저(도 5의 505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540)을 실행할 수 있다.
한편, 프로세서(175)는, 이더넷 데이터를 수신하고 처리하는 레가시 가상화 머신을 더 실행할 수 있다. 예를 들어, 레가시 가상화 머신은, 도 5와 같이, 프로세서(175) 내의 제1 가상화 머신(520)에서 실행도리 수 있다.
제1 가상화 머신 내지 제3 가상화 머신(도 5의 520~540) 중 제1 가상화 머신(520)은, 서버 가상화 머신(Server Virtual Maschine)이라 명명할 수 있으며, 제2 가상화 머신 내지 제3 가상화 머신(530~540)은 게스트 가상화 머신(Guest Virtual Maschine)이라 명명할 수 있다.
이때, 제2 가상화 머신(530)은 제1 디스플레이(180a)를 위해 동작하며, 제3 가상화 머신(540)은, 제2 디스플레이(180b)를 위해 동작할 수 있다.
예를 들어, 프로세서(175) 내의 제1 가상화 머신(520)은, 차량 센서 데이터, 위치 정보 데이터, 카메라 영상 데이터, 오디오 데이터 또는 터치 입력 데이터를 수신하고, 처리 또는 가공하여 출력할 수 있다. 레가시 가상화 머신에서만 처리하는 데이터와, 제1 가상화 머신(520)에서 처리되는 데이터를 구분함으로써, 데이터 처리를 효율적으로 수행할 수 있게 된다. 특히, 제1 가상화 머신(520)에서 대부분의 데이터 처리를 수행함으로써, 1:N 방식의 데이터의 공유가 가능하게 된다.
다른 예로, 제1 가상화 머신(520)은, 제2 가상화 머신 내지 제3 가상화 머신(530~540)을 위해, CAN 통신 데이터, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터를 직접 수신하고 처리할 수 있다.
그리고, 제1 가상화 머신(520)은, 처리된 데이터를 제2 가상화 머신 내지 제3 가상화 머신(530~540)으로 전송할 수 있다.
이에 따라, 제1 가상화 머신 내지 제3 가상화 머신(520~540) 중 제1 가상화 머신(520)만, 통신 데이터, 외부 입력 데이터를 수신하여, 신호 처리를 수행함으로써, 다른 가상화 머신에서의 신호 처리 부담이 경감되며, 1:N 데이터 통신이 가능하게 되어, 데이터 공유시의 동기화가 가능하게 된다.
한편, 제1 가상화 머신(520)은, 데이터의 일부를 제2 가상화 머신(530)으로 전달되도록 제1 공유 메모리(미도시)에 기록하고, 데이터의 다른 일부를 제3 가상화 머신으로 전달되도록 제1 공유 메모리(미도시)에 기록하며, 제2 가상화 머신(530)과 제3 가상화 머신(540)은, 각각 전달받은 데이터를 처리하여, 처리된 데이터가 제2 공유 메모리(미도시)에 기록되도록 제어한다.
이때의 데이터는, 영상 데이터, 오디오 데이터, 네비게이션 데이터, 또는 음성 인식 데이터 중 어느 하나일 수 있다.
한편, 제1 가상화 머신(520)은, 데이터의 또 다른 일부를 처리하여, 제2 공유 메모리(미도시)에 처리된 데이터가 기록되도록 제어할 수 있다. 즉, 제2 가상화 머신(530)과 제3 가상화 머신 외에 추가로 제1 가상화 머신(520)이 데이터 처리를 수행할 수 있다.
한편, 프로세서(175) 내에 제3 디스플레이(180c)를 위해 동작하는 제4 가상화 머신(550)이 실행되는 경우, 제1 가상화 머신(520)은, 데이터의 또 다른 일부를 제1 공유 메모리(미도시)에 기록하며, 제4 가상화 머신(550)은, 각각 전달받은 데이터를 처리하여, 처리된 데이터가 제2 공유 메모리(미도시)에 기록되도록 제어할 수 있다.
한편, 제1 가상화 머신(520)은, 제2 가상화 머신 내지 제3 가상화 머신(530,540)에서의 데이터의 분산 처리를 위한 각각의 커맨드 큐를 생성할 수 있다. 이에 따라, 복수의 가상화 머신에서 데이터를 분담하여 처리할 수 있게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 제2 가상화 머신 내지 제3 가상화 머신(530,540)에서 동일한 데이터를 공유하는 경우, 1개의 동일한 커맨드 큐를 생성할 수 있다. 이에 따라, 동일한 데이터를 동기화하여 공유할 수 있게 된다.
한편, 제1 가상화 머신(520)은, 데이터의 분산 처리를 위한 가상화 머신의 개수에 대응하는 커맨드 큐를 생성할 수 있다.
한편, 제1 가상화 머신(520)은, 데이터 분산 처리를 위해, 데이터의 적어도 일부를, 제2 가상화 머신(530) 또는 제3 가상화 머신(540) 중 적어도 하나로 전송되도록 제어할 수 있다.
예를 들어, 제1 가상화 머신(520)은, 데이터의 적어도 일부를, 제2 가상화 머신(530) 또는 제3 가상화 머신(540) 중 적어도 하나로 전송하기 위한 제1 공유 메모리(미도시)를 할당하고, 제2 가상화 머신(530) 또는 제3 가상화 머신(540)에서 처리된 영상 데이터는 제2 공유 메모리(미도시)에 기록될 수 있다.
한편, 제1 가상화 머신(520)은, 데이터를 공유 메모리(508)에 기록하여, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로 동일한 데이터를 공유하도록 제어할 수 있다.
예를 들어, 제1 가상화 머신(520)은, 라디오 데이터 또는 무선 통신 데이터를 공유 메모리(508)에 기록하여, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로 동일한 데이터를 공유하도록 제어할 수 있다. 이에 따라, 1:N 방식의 데이터의 공유가 가능하게 된다.
결국, 제1 가상화 머신(520)에서 대부분의 데이터 처리를 수행함으로써, 1:N 방식의 데이터의 공유가 가능하게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 동일한 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어할 수 있다.
즉, 프로세서(175) 내의 제1 가상화 머신(520)은, 하이퍼바이저(505) 기반의 공유 메모리(508)를 이용하여, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 동일한 데이터를 동기화하여 전송할 수 있다. 이에 따라, 차량 내의 복수의 디스플레이(180a~180b)에서 동일한 영상을 동기화하여 표시할 수 있게 된다.
한편, 신호 처리 장치(170)는, 오디오 신호, 영상 신호, 데이터 신호 등 다양한 신호를 처리할 수 있다. 이를 위해, 신호 처리 장치(170)는, 시스템 온 칩(System On Chip,SOC)의 형태로 구현될 수 있다.
한편, 공유 메모리(508)는, 제1 메모리(140a) 내에 구현될 수 있다.
도 4는 본 발명와 관련한 신호 처리 장치에서 실행되는 시스템을 도시한 도면이다.
도면을 참조하면, 도 4는 클러스터 디스플레이(180a)와 AVN 디스플레이(180b)를 위해, 가상화 머신이 각각 사용되는 것을 예시하는 도면이다.
도 4의 신호 처리 장치에서 실행되는 시스템(400)은, 프로세서(175) 내의 하이퍼바이저(405) 상에서, 클러스터 가상화 머신(430), AVN 가상화 머신(440)이 실행되는 것을 예시한다.
한편, 도 4의 신호 처리 장치에서 실행되는 시스템(400)은, 프로세서(175) 내의 하이퍼바이저(405) 상에서, 레가시(legacy) 가상화 머신(410)도 실행되는 것을 예시한다.
레가시(legacy) 가상화 머신(410)은, 메모리(140)와의 데이터 통신을 위한 인터페이스(412), 이더넷 통신을 위한 인터페이스(413)을 구비한다.
한편, 클러스터 가상화 머신(430)은, CAN 통신을 위한 인터페이스(431), 레가시(legacy) 가상화 머신(410)의 인터페이스(412)와의 통신을 위한 인터페이스(432), 레가시(legacy) 가상화 머신(410)의 인터페이스(413)와의 통신을 위한 인터페이스(433)를 구비할 수 있다.
한편, AVN 가상화 머신(440)은, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터의 입출력을 위한 인터페이스(441), 레가시(legacy) 가상화 머신(410)의 인터페이스(412)와의 통신을 위한 인터페이스(442), 레가시(legacy) 가상화 머신(410)의 인터페이스(413)와의 통신을 위한 인터페이스(443)를 구비할 수 있다.
이러한 시스템(400)에 의하면, CAN 통신 데이터는, 클러스터 가상화 머신(430)에서만 입출력되므로, AVN 가상화 머신(440)에서는 CAN 통신 데이터를 활용하지 못하는 단점이 있다.
또한, 도 4의 시스템(400)에 의하면, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터는, AVN 가상화 머신(440)에서만 입출력되므로, 클러스터 가상화 머신(430)에서는 이러한 데이터를 활용하지 못하는 단점이 있다.
한편, 레가시(legacy) 가상화 머신(410)에서 입출력되는 메모리 데이터, 이더넷 통신 데이터를 위해, 클러스터 가상화 머신(430)과 클러스터 가상화 머신(430)가 각각 별도의 인터페이스(431,432,441,442)를 구비해야 하는 단점이 있다.
이에 본 발명에서는, 도 4의 시스템을 개선하기 위한 방안을 제시한다. 즉, 도 4와 달리, 가상화 머신을 서버 가상화 머신과 게스트 가상화 머신으로 구분하고, 각종 메모리 데이터, 통신 데이터 등을 게스트 가상화 머신에서 입출력되지 않고, 서버 가상화 머신에서 입출력되도록 한다. 이에 대해서는 도 5 이하를 참조하여 기술한다.
도 5는 본 발명의 신호 처리 장치에서 실행되는 시스템의 일예를 도시한 도면이다.
도면을 참조하면, 도 5의 시스템(500)은, 신호 처리 장치(170) 내의 프로세서(175) 내의 하이퍼바이저(505) 상에서, 서버 가상화 머신인 제1 가상화 머신(520), 게스트 가상화 머신인 제2 가상화 머신(530), 게스트 가상화 머신인 제3 가상화 머신(540)이 실행되는 것을 예시한다.
제2 가상화 머신(530)은, 클러스터 디스플레이(180a)를 위한 가상화 머신이고, 제3 가상화 머신(540)은 AVN 디스플레이(180b)를 위한 가상화 머신일 수 있다.
즉, 제2 가상화 머신(530)과, 제3 가상화 머신(540)은, 각각 클러스터 디스플레이(180a)과 AVN 디스플레이(180b)의 영상 렌더링을 위해 동작할 수 있다.
한편, 도 5의 신호 처리 장치(170)에서 실행되는 시스템(500)은, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 레가시(legacy) 가상화 머신(510)도 실행되는 것을 예시한다.
레가시(legacy) 가상화 머신(510)은, 메모리(140)와의 데이터 통신, 및 이더넷 통신을 위한 인터페이스(511)을 구비한다.
도면에서는, 인터페이스(511)가, 피지컬 디바이스 드라이버(physical device driver)인 것을 예시하나, 다양한 변형이 가능하다.
한편, 레가시(legacy) 가상화 머신(510)은, 제2 내지 제3 가상화 머신(530,540)과의 데이터 통신을 위한 인터페이스(virtio-backend interface)(512)를 더 구비할 수 있다.
제1 가상화 머신(520)은, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터의 입출력을 위한 인터페이스(521), 게스트 가상화 머신과의 데이터 통신을 위한 입출력 서버 인터페이스(522)를 구비할 수 있다.
즉, 서버 가상화 머신인 제1 가상화 머신(520)은, 표준가상화기술(VirtIO)에 의해 가상화되기 힘든 I/O 들을 다수의 게스트 가상화 머신, 예를 들어, 제2 내지 제3 가상화 머신(530,540) 등에 제공할 수 있다.
한편, 서버 가상화 머신인 제1 가상화 머신(520)은, 라디오 데이터, 오디오 데이터 등을 슈퍼바이저(Supervisor) 수준에서 제어하고, 다수의 게스트 가상화 머신, 예를 들어, 제2 내지 제3 가상화 머신(530,540) 등에 제공할 수 있다.
한편, 서버 가상화 머신인 제1 가상화 머신(520)은, 차량 데이터, 센서 데이터, 차량 주변 정보 등을 처리하고, 처리된 데이터 또는 정보 등을 다수의 게스트 가상화 머신, 예를 들어, 제2 내지 제3 가상화 머신(530,540) 등에 제공할 수 있다.
한편, 제1 가상화 머신(520)은, 차량 데이터(vehicle data)의 처리, 오디오 라우팅(Audio routing) 관리 등과 같은, 서비스(Supervisory Services)를 제공할 수 있다.
다음, 제2 가상화 머신(530)은, 제1 가상화 머신(520)과의 데이터 통신을 위한 입출력 클라이언트 인터페이스(532)와, 입출력 클라이언트 인터페이스(532)를 제어하는 APIs(533)를 구비할 수 있다.
또한, 제2 가상화 머신(530)은, 레가시 가상화 머신(510)과의 데이터 통신을 위한 인터페이스(virtio-backend interface)를 구비할 수 있다.
제2 가상화 머신(530)은, 인터페이스(virtio-backend interface)를 통해, 레가시(legacy) 가상화 머신(510)의 인터페이스(virtio-backend interface)(512)로부터 메모리(140)와의 통신에 의한 메모리 데이터 또는 이더넷 통신에 의한 이더넷 데이터 등을 수신할 수 있다.
다음, 제3 가상화 머신(540)은, 제1 가상화 머신(520)과의 데이터 통신을 위한 입출력 클라이언트 인터페이스(542)와 입출력 클라이언트 인터페이스(542)를 제어하는 APIs(543)를 구비할 수 있다.
또한, 제3 가상화 머신(540)은, 레가시 가상화 머신(510)과의 데이터 통신을 위한 인터페이스(virtio-backend interface)를 구비할 수 있다.
제3 가상화 머신(540)은, 인터페이스(virtio-backend interface)를 통해, 레가시(legacy) 가상화 머신(510)의 인터페이스(virtio-backend interface)(512)로부터 메모리(140)와의 통신에 의한 메모리 데이터 또는 이더넷 통신에 의한 이더넷 데이터 등을 수신할 수 있다.
한편, 레가시(legacy) 가상화 머신(510)은, 도 5와 달리, 제1 가상화 머신(520) 내에 구비되는 것도 가능하다.
이러한 시스템(500)에 의하면, CAN 통신 데이터는, 제1 가상화 머신(520)에서만 입출력되나, 제1 가상화 머신(520)에서의 데이터 처리를 통해, 다수의 게스트 가상화 머신, 예를 들어, 제2 내지 제3 가상화 머신(530,540) 등에 제공될 수 있다. 따라서, 제1 가상화 머신(520)의 처리에 의한 1:N 데이터 통신이 가능하게 된다.
또한, 도 5의 시스템(500)에 의하면, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터는, 제1 가상화 머신(520)에서만 입출력되나, 제1 가상화 머신(520)에서의 데이터 처리를 통해, 다수의 게스트 가상화 머신, 예를 들어, 제2 내지 제3 가상화 머신(530,540) 등에 제공될 수 있다. 따라서, 제1 가상화 머신(520)의 처리에 의한 1:N 데이터 통신이 가능하게 된다.
또한, 도 5의 시스템(500)에 의하면, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)에 대한 터치 입력(Touch)은, 제1 가상화 머신(520)에만 입력되고, 제2 내지 제3 가상화 머신(530,540)에는 입력되지 않는다. 터치 입력(Touch)에 대한 정보를 제2 가상화 머신(530) 또는 제3 가상화 머신(540)으로 전송한다.
이에 따라, 터치 입력(Touch)에 대한 처리를 신속하고 정확하게 수행할 수 있게 된다. 또한, 실행되는 가상화 머신의 개수가 증가되더라도, 터치 입력(Touch)에 대한 처리를 신속하고 정확하게 수행할 수 있게 된다.
한편, 도 5의 시스템(500)에서 제2 내지 제3 가상화 머신(530,540)은 서로 다른 OS 기반으로 동작할 수 있다.
예를 들어, 제2 가상화 머신(540)은 리눅스 OS 기반 하에 동작하며, 제3 가상화 머신(540)은 웹 OS 기반 하에 동작할 수 있다.
제1 가상화 머신(520)은, 제2 내지 제3 가상화 머신(530,540)은 서로 다른 OS 기반 하에 동작하더라도, 데이터 공유를 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정할 수 있다. 이에 따라, 제2 내지 제3 가상화 머신(530,540)이, 서로 다른 운영 체제(Operating system;OS) 하에 동작하더라도, 동일한 데이터 또는 동일한 영상을 동기화하여 공유할 수 있게 된다. 결국, 복수의 디스플레이(180a,180b)에 동일한 데이터 또는 동일한 영상을 동기화하여 표시할 수 있게된다.
한편, 제1 가상화 머신(520)은, 제2 내지 제3 가상화 머신(530,540)은 서로 다른 OS 기반 하에 동작하더라도, 터치 입력(Touch)에 대한 정보를 제2 가상화 머신(530) 또는 제3 가상화 머신(540)으로 전송한다. 이에 따라, 제2 내지 제3 가상화 머신(530,540)이, 서로 다른 운영 체제(Operating system;OS) 하에 동작하더라도, 터치 입력(Touch)에 대한 처리를 신속하고 정확하게 수행할 수 있게 된다.
한편, 제1 가상화 머신(520)은, 제2 내지 제3 가상화 머신(530,540)을 통해, 제1 디스플레이(180a)와 제2 디스플레이(180b)에 표시되는 오버레이의 제어를 위한 디스플레이 매니저(527)와, 디스플레이 레이어 서버(529)를 구비할 수 있다.
디스플레이 레이어 서버(529)는, 제2 가상화 머신(530)이 제공하는 제1 오버레이와, 제3 가상화 머신(540)이 제공하는 제2 오버레이를 수신할 수 있다.
한편, 디스플레이 레이어 서버(529)는, 제1 오버레이 또는 제2 오버레이와 별도의 버츄얼 오버레이(virtual overlay)를, 제2 가상화 머신(530) 또는 제3 가상화 머신(540) 중 적어도 하나에 전송할 수 있다.
한편, 제1 가상화 머신(520) 내의 디스플레이 매니저(527)는, 제2 가상화 머신(530)이 제공하는 제1 오버레이와, 제3 가상화 머신(540)이 제공하는 제2 오버레이를, 디스플레이 레이어 서버(529)를 통해 수신할 수 있다.
그리고, 제1 가상화 머신(520) 내의 디스플레이 매니저(527)는, 제1 오버레이 또는 제2 오버레이와 별도의 버츄얼 오버레이(virtual overlay)를, 디스플레이 레이어 서버(529)를 통해, 제2 가상화 머신(530) 또는 제3 가상화 머신(540) 중 적어도 하나에 전송하도록 제어할 수 있다.
이에 대응하여, 제2 가상화 머신(530)은, 제1 오버레이와 버츄얼 오버레이(virtual overlay)를 합성하여, 제1 디스플레이(180a)에 표시되도록 제어할 수 있다.
또한, 제3 가상화 머신(540)은, 제2 오버레이와 버츄얼 오버레이(virtual overlay)를 합성하여, 제2 디스플레이(180b)에 표시되도록 제어할 수 있다.
한편, 제1 가상화 머신(520)은, 외부로부터의 입력 신호를 수신하는 입력 매니저(524)를 구비할 수 있다. 이때의 입력 신호는, 차량 내의 소정 버튼(시동 버튼 등)의 입력 신호, 터치 입력 신호, 또는 음성 입력 신호 등일 수 있다.
예를 들어, 제1 가상화 머신(520) 내의 입력 매니저(524)는, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)로부터의 터치 입력을 수신할 수 있다.
한편, 제1 가상화 머신(520)은, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)로부터의 터치 입력과 관련한 터치 입력(Touch)에 대한 정보를 제2 가상화 머신(530) 또는 제3 가상화 머신(540)으로 전송하는 터치 서버(528)를 구비할 수 있다.
예를 들어, 제1 가상화 머신(520) 내의 터치 서버(528)는, 제1 디스플레이(180a)에 대응하는 터치 입력이 있는 경우, 터치 입력(Touch)에 대한 정보를, 제2 가상화 머신(530)으로 전송할 수 있다.
한편, 제1 가상화 머신(520) 내의 터치 서버(528)는, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)로부터의 터치 입력을 수신할 수도 있다.
도 6은 본 발명의 신호 처리 장치에서 실행되는 시스템의 다른 예를 도시한 도면이다.
도면을 참조하면, 도 6의 신호 처리 장치(170) 내의 프로세서(175)에서 실행되는 시스템(500b)에 의하면, 신호 처리 장치(170) 내의 프로세서(175)는, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540)을 실행하며, 프로세서(175) 내의 제1 가상화 머신(520)은, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어한다.
예를 들어, 데이터로, 터치 입력(Touch)에 대한 정보가 예시될 수 있다. 이에 따라, 터치 입력(Touch)에 대한 정보를 제2 가상화 머신(530) 또는 제3 가상화 머신(540)으로 전송되며, 결국, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)에 대한 터치 입력(Touch)에 대한 처리를 신속하고 정확하게 수행할 수 있게 된다. 또한, 실행되는 가상화 머신의 개수가 증가되더라도, 터치 입력(Touch)에 대한 처리를 신속하고 정확하게 수행할 수 있게 된다.
다른 예로, 데이터로, 영상 데이터가 예시될 수 있다. 이에 따라, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)에 영상을 표시할 수 있게 된다.
한편, 공유 메모리(508)에 동일한 영상 데이터가 공유되는 경우, 차량 내의 복수의 디스플레이(180a~180b)에서 동일한 영상을 동기화하여 표시할 수도 있게 된다.
또 다른 예로, 데이터로, CAN 통신 데이터, 오디오 데이터, 라디오 데이터, USB 데이터, 무선 통신 데이터, 위치 정보 데이터 등이 예시될 수 있다. 이에 따라, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)에, 해당하는 데이터에 대한 정보를 표시할 수 있게 된다.
한편, 도 6에는 표시되지 않았지만, 레가시 가상화 머신(510)은, 메모리(140)로부터의 메모리 데이터, 또는 이더넷 통신에 의해 이더넷 데이터를, 하이퍼바이저(505) 기반의 공유 메모리(508)를 이용하여, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 전송할 수 있다. 이에 따라, 메모리 데이터 또는 이더넷 데이터에 대응하는 정보가, 제1 디스플레이(180a) 또는 제2 디스플레이(180b)에 표시될 수 있게 된다.
한편, 도 6의 시스템(500b) 내의 제1 가상화 머신(520)은, 도 5의 시스템(500) 내의 제1 가상화 머신과 유사하게, 디스플레이 매니저(527)와, 디스플레이 레이어 서버(529), 입력 매니저(524), 터치 서버(528)를 구비할 수 있다.
한편, 도 6의 시스템(500b) 내의 제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, 도 5와 달리, 디스플레이 레이어 서버(529)와, 터치 서버(528)를 구비할 수 있다.
디스플레이 매니저(527)와, 디스플레이 레이어 서버(529), 입력 매니저(524), 터치 서버(528)의 동작은, 도 5와 동일하므로 그 설명을 생략한다.
한편, 도 6의 제1 가상화 머신(520)은, 전체 시스템 제어를 위한 시스템 매니저(system manager), 차량 정보 관리를 위한 차량 정보 매니저(vehicle information manager), 오디오 제어를 위한 오디오 매니저(audio manager), 라디오 제어를 위한 라디오 매니저(radio manager) 등을 더 구비할 수 있다.
한편, 도 6의 시스템(500b) 내의 제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, GPS 정보의 입출력을 위한 GNSS 서버, 블루투스 입출력을 위한 블루투스 서버, 와이파이 입출력을 위한 와이파이 서버, 카메라 데이터 입출력을 위한 카메라 서버 등을 더 포함할 수 있다.
도 7은 본 발명의 신호 처리 장치에서 실행되는 시스템의 또 다른 예를 도시한 도면이다.
도면을 참조하면, 도 7의 신호 처리 장치(170) 내의 프로세서(175)에서 실행되는 시스템(500c)은, 도 6의 시스템(500b)과 거의 유사하다.
즉, 도 6과 같이, 도 7의 프로세서(175)는, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540)을 실행한다.
다만, 도 7에서는 도 6과 달리, 디스플레이 레이어 서버(529)와, 터치 서버(528)가, 입출력 서버 인터페이스(522)의 외부에, 제1 가상화 머신(520) 내에서 구비되어 실행될 수 있다.
또한, 도 6과 달리, GPS 정보의 입출력을 위한 GNSS 서버, 블루투스 입출력을 위한 블루투스 서버, 와이파이 입출력을 위한 와이파이 서버, 카메라 데이터 입출력을 위한 카메라 서버 등이, 입출력 서버 인터페이스(522)의 외부에, 제1 가상화 머신(520) 내에서 구비되어 실행될 수 있다.
즉, 제1 가상화 머신(520) 내에, 디스플레이 매니저(527)와, 디스플레이 레이어 서버(529), 입력 매니저(524), 터치 서버(528)가 구비되어 실행될 수 있다.
한편, 도 6의 시스템(500b) 내의 제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, 도 5와 달리, 디스플레이 레이어 서버(529)와, 터치 서버(528)를 구비할 수 있다.
디스플레이 매니저(527)와, 디스플레이 레이어 서버(529), 입력 매니저(524), 터치 서버(528)의 동작은, 도 5와 동일하므로 그 설명을 생략한다.
도 8 내지 도 9b는 도 5의 설명에 참조되는 도면이다.
먼저, 도 8은, 본 발명의 실시예에 따른 시스템(500) 내의 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520~540)을 실행하며, 프로세서(175) 내의 제1 가상화 머신(520)이, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로, 동일한 데이터 전송을 위해, 하이퍼바이저(505) 기반의 공유 메모리(508)가 설정되도록 제어하는 것을 예시한다.
이에 따라, 차량 내의 복수의 디스플레이(180a~180b)에서 동일한 영상을 동기화하여 표시할 수 있게 된다.
한편, 복수의 가상화 머신 사이의 고속의 데이터 통신을 수행할 수 있게 된다. 나아가, 복수의 가상화 머신이 서로 다른 운영체제에 의해 실행되더라도 고속의 데이터 통신을 수행할 수 있게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 제1 가상화 머신(520)에서 처리된 데이터를, 다른 가상화 머신으로 전송하는 경우, 가상화 머신의 개수에 대응하는 개수의 메모리 할당이 아닌, 하나의 공유 메모리(508)를 이용할 수 있다. 이에 따라, 가상화 머신들 사이에서의 1:1 방식의 데이터 통신이 아니라, 공유 메모리(508)를 이용하여, 1:N 방식의 데이터 통신이 가능하게 된다.
한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 입출력 서버 인터페이스(522)와 보안 매니저(526)를 포함할 수 있다.
한편, 제2 가상화 머신(530) 및 제3 가상화 머신(540)은, 각각 입출력 클라이언트 인터페이스(532, 542)를 포함할 수 있다. 이에 따라, 입출력 서버 인터페이스(522)와, 입출력 클라이언트 인터페이스(532, 542)를 이용하여, 복수의 가상화 머신 사이의 고속의 데이터 통신을 수행할 수 있게 된다.
제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, 제2 가상화 머신(530) 및 제3 가상화 머신(540) 내의 각 입출력 클라이언트 인터페이스(532, 542)로부터 동일 데이터 전송 요청을 수신하고, 이에 기초하여, 공유 데이터를 보안 매니저(526)를 통해, 공유 메모리(508)로 전송할 수 있다.
도 9a는 공유 데이터 전송에 대한 보다 상세한 도면을 예시한다.
도면을 참조하면, 공유 데이터 전송을 위해, 제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, 보안 매니저(526)로 공유 메모리(508)의 할당 요청을 전송한다(S1).
다음, 보안 매니저(526)는, 하이퍼바이저(505)를 이용하여 공유 메모리(508)를 할당하고(S2), 공유 메모리(508)에 공유 데이터를 기록할 수 있다.
한편, 입출력 클라이언트 인터페이스(532, 542)는, 공유 메모리(508) 할당 이후, 입출력 서버 인터페이스(522)로 연결 요청을 전송할 수 있다(S3).
한편, 입출력 서버 인터페이스(522)는, 공유 메모리(508) 할당 이후, 입출력 클라이언트 인터페이스(532, 542)로, 키 데이터를 포함하는 공유 메모리(508)에 대한 정보를 전송한다(S4). 이때의 키 데이터는, private key 데이터일 수 있다.
즉, 한편, 프로세서(175) 내의 제1 가상화 머신(520)은, 공유 메모리(508)의 설정 이후, 공유 메모리(508)에 대한 정보를, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로 전송할 수 있다.
다음, 제1 가상화 머신(520) 내의 입출력 서버 인터페이스(522)는, 가상화 머신 사이의 분산 처리 제어를 위해, 데이터와 별도의, 커맨드 또는 이벤트 처리를 위한 커맨드 큐(command queue)를 생성하도록 제어한다(S5).
도면에서는, 입출력 서버 인터페이스(522)의 제어에 의해, 하이퍼바이저(505) 내의 커맨드 큐 버퍼(504)에서, 커맨드 큐가 생성되는 것을 예시한다. 그러나, 이에 한정되지 않으며, 입출력 서버 인터페이스(522)의 제어에 의해, 하이퍼바이저(505) 내가 아닌, 제1 가상화 머신(520) 내에서 생성되는 것도 가능하다.
다음, 각 입출력 클라이언트 인터페이스(532, 542)는, 커맨드 큐 버퍼(504)에 억세스 하여, 생성된 커맨드 큐 또는 커맨드 큐에 대한 정보를 수신한다(S6).
예를 들어, 각 입출력 클라이언트 인터페이스(532, 542)로의 커맨드가 동일한 경우, 생성된 커맨드 큐는 동일할 수 있다.
다른 예로, 각 입출력 클라이언트 인터페이스(532, 542)로의 커맨드가 서로 다른 경우, 서로 다른 커맨드 큐가, 각 입출력 클라이언트 인터페이스(532, 542)로 전달될 수 있다.
다음, 각 입출력 클라이언트 인터페이스(532, 542)는, 입출력 클라이언트 인터페이스(532, 542)는, 수신한 키 데이터에 기초하여 공유 메모리(508)에 접근하고(S5), 공유 데이터를 공유 메모리(508)로부터 카피(copy) 또는 독출할 수 있다(S7).
특히, 각 입출력 클라이언트 인터페이스(532, 542)가 동일한 공유 데이터를 전달받는 경우, 입출력 클라이언트 인터페이스(532, 542)는, 동일한 커맨드 큐 및 동일한 키 데이터에 기초하여 공유 메모리(508)에 접근하고(S5), 공유 데이터를 공유 메모리(508)로부터 카피(copy) 또는 독출할 수 있다.
이에 따라, 제2 가상화 머신(530) 및 제3 가상화 머신(540)에서 공유 메모리(508)에 억세스 가능하게 되며, 결국, 공유 데이터를 공유할 수 있게 된다.
예를 들어, 공유 데이터가, 영상 데이터인 경우, 제2 가상화 머신(530) 및 제3 가상화 머신(540)에서 영상 데이터를 공유하게 되며, 결국 차량 내의 복수의 디스플레이(180a~180b)에서 동일한 공유 영상을 동기화하여 표시할 수 있게 된다.
도 9b는, 도 9a의 시스템(500)에 의해, 제2 가상화 머신(530)이 공유 메모리(508)를 통해 수신된 영상 데이터를 제1 디스플레이(180a)에 표시하고, 제3 가상화 머신(540)이 공유 메모리(508)를 통해 수신된 영상 데이터를 제2 디스플레이(180b)에 표시하는 것을 예시한다.
도 9b에서는, 제1 디스플레이(180a)에 표시되는 영상(905a)과 제2 디스플레이(180b)에 표시되는 영상(905b)의 동기화 수행되어, T1 시점에, 동일한 영상(905a,905b)이 각각 표시되는 것을 예시한다.
즉, 프로세서(175) 내의 제1 가상화 머신(520)에서 처리된 영상 데이터는, 공유 메모리(508)를 통해, 제2 가상화 머신(530) 및 제3 가상화 머신(540)으로 전송되며, 영상 데이터에 기초하여, 제1 디스플레이(180a)에 표시되는 제1 영상(905a)과, 제2 디스플레이(180b)에 표시되는 제2 영상(905b)은 서로 동일할 수 있다. 이에 따라, 차량 내의 복수의 디스플레이(180a~180b)에서 동일한 영상을 동기화하여 표시할 수 있게 된다.
도 10은 본 발명과 관련한 신호 처리 장치에서 실행되는 시스템의 일 예를 도시한 도면이다.
도면을 참조하면, 신호 처리 장치(170)에서 실행되는 시스템(500s)은, 제1 가상화 머신 내지 제3 가상화 머신(520, 530, 540)을 실행할 수 있다.
특히, 신호 처리 장치(170)에서 실행되는 시스템(500s)은, 프로세서(175) 내의 하이퍼바이저(505) 상에서, 제1 가상화 머신 내지 제3 가상화 머신(520, 530, 540)을 실행할 수 있다.
서버 가상화 머신인 제1 가상화 머신(520)은, 전체 시스템 제어를 위한 시스템 매니지먼트(system management)(SMa), 전체 시스템 관리를 위한 시스템 슈퍼바이저(system supervisors)(SPV), 입출력 가상화(VSA)를 실행할 수 있다.
한편, 입출력 가상화(VSA), 도 5 등의 입출력 서버 인터페이스(522)에 대응할 수 있다.
게스트 가상화 머신인 제2 가상화 머신(530)은, 리눅스 기반의 운영 체제 하에 동작할 수 있으며, 애플리케이션 실행을 위해, 내부에 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행시킬 수 있다.
도면에서는, 복수의 서비스 컨테이너가 실행되는 것을 예시하며, 구체적으로, 제2 가상화 머신(530) 내에, 클러스터 HMI 클러스터(CTa), HMI 클러스터(CTb), 디지털 맵과 관련된 Here Engine 클러스터(CTc), 맵박스 엔진 클러스터(CTd), 제1 신규 클러스터(CTe), 제2 신규 클러스터(CTf)를 예시한다.
클러스터 HMI 클러스터(CTa)는 클러스터 리소스 풀(CPP)에 기반하에 동작할 수 있으며, HMI 클러스터(CTb)는 HMI 리소스 풀(HRP)에 기반하에 동작할 수 있으며, Here Engine 클러스터(CTc)와 맵박스 엔진 클러스터(CTd)는 네비게이션 리소스 풀(NSP)에 기반하에 동작할 수 있으며, 제1 신규 클러스터(CTe)와 제2 신규 클러스터(CTf)는, 신규 특징 리소스 풀(NEP)에 기반하에 동작할 수 있다.
한편, 게스트 가상화 머신인 제2 가상화 머신(530)은, 컨테이너 엔진(CEm)을 실행하고, 컨테이너 엔진(CEm) 상에, 적어도 하나의 서비스 컨테이너(CTa~CTf)를 실행시킬 수 있다.
특히, 게스트 가상화 머신인 제2 가상화 머신(530)은, 컨테이너 엔진(CEm)을 실행하고, 컨테이너 엔진(CEm) 상에, 적어도 하나의 리소스 풀(CPP,HRP,NSP,NEP)을 실행시키고, 적어도 하나의 리소스 풀(CPP,HRP,NSP,NEP) 상에, 적어도 하나의 서비스 컨테이너(CTa~CTf)를 실행시킬 수 있다.
한편, 게스트 가상화 머신인 제2 가상화 머신(530)은, 컨테이너 엔진(CEm) 또는 적어도 하나의 서비스 컨테이너(CTa~CTf)의 관리를 위한 컨테이너 매니저(CMa)를 실행시킬 수 있다.
한편, 게스트 가상화 머신인 제2 가상화 머신(530)은, 윈도우 관리를 위한 윈도우 매니저(WMa)를 실행시킬 수 있다.
한편, 게스트 가상화 머신인 제2 가상화 머신(530)은, 애플리케이션 관리를 위한 애플리케이션 매니저(AMa)를 실행시킬 수 있다.
한편, 게스트 가상화 머신인 제3 가상화 머신(540)은, 제2 가상화 머신(530)과 달리, 안드로이드 기반의 운영 체제 하에 동작할 수 있으며, 애플리케이션 실행을 위해, 피지컬 디바이스 드라이버(541), 입출력 클라이언트 인터페이스(542), 입출력 클라이언트 인터페이스(542)를 제어하는 APIs(543), 액티비티 매니저(ACMb)와 액티비티 매니저(WMb)를 포함하는 프레임워크, HMI 등을 실행시킬 수 있다.
한편, 제2 가상화 머신(530) 내의 적어도 하나의 컨테이너는, 서버(60) 내의 복수의 컨테이너(CT1~CT3) 중 어느 하나가 선택되어, 설치, 실행되는 것일 수 있다.
이러한 컨테이너의 배포, 설치, 및 실행시에, 각 컨테이너 별로, 각각 배포, 설치, 실행을 하는 경우, 상당한 데이터 소비, 및 리소스 소비가 발생하게 된다. 특히, 설치하는 컨테이너의 개수가 증가할수록, 데이터 소비, 및 리소스 소비가, 상당히 증가하게 된다.
이에 본 발명의 실시예에서는, 컨테이너를 효율적으로 설치하고 효율적으로 실행하는 방안을 제시한다. 이에 대해서는 도 11 이하를 참조하여 기술한다.
도 11은 본 발명의 다른 실시예에 따른 신호 처리 장치에서 실행되는 시스템의 일 예를 도시한 도면이다.
도면을 참조하면, 본 발명의 실시예에 따른 신호 처리 장치(170)에서 실행되는 시스템(500s) 내의 프로세서(175)는, 제1 가상화 머신 내지 제2 가상화 머신(520, 530)을 실행할 수 있다.
서버 가상화 머신인 제1 가상화 머신(520)은, 전체 시스템 관리를 위한 시스템 슈퍼바이저(system supervisors)(SPV), 입출력 가상화(VSA)를 실행할 수 있다. 한편, 입출력 가상화(VSA), 도 5 등의 입출력 서버 인터페이스(522)에 대응할 수 있다.
게스트 가상화 머신인 제2 가상화 머신(530)은, 리눅스 기반의 운영 체제 하에 동작할 수 있으며, 애플리케이션 실행을 위해, 컨테이너(COA)를 실행시킬 수 있다.
한편, 제1 가상화 머신 내지 제2 가상화 머신(520~530) 중 적어도 하나는, 컨테이너 엔진(CEm)을 실행하고, 컨테이너 엔진(CEm) 상에서, 공유 컨테이너(SCO)와 적어도 하나의 서비스 컨테이너(COA~COC)를 실행한다.
도면에서는, 제2 가상화 머신(520~530) 내에 복수의 서비스 컨테이너(COA~COC)와 공유 컨테이너(SCO)가 실행되는 것을 예시한다.
한편, 게스트 가상화 머신인 제2 가상화 머신(530)은, 컨테이너(COA)의 관리를 위한 컨테이너 매니저(CMa)를 더 실행시킬 수 있다.
이때, 제2 가상화 머신(530) 내의 복수의 서비스 컨테이너(COA~COC)는, 도 10의 서버(60) 내의 복수의 컨테이너(CT1~CT3)가 각각 선택되어, 설치, 실행되는 것일 수 있다.
한편, 본 발명의 실시예에 따르면, 복수의 서비스 컨테이너(COA~COC)의 효율적인 설치, 효율적인 실행을 위해, 공유 컨테이너(SCO) 내의 공유 레이어(SLOa)를 활용한다.
예를 들어, 각 컨테이너(CT1~CT3)는, 베이스 이미지 레이어(BLa,BLb,BLc), 베이스 이미지 레이어(BLa,BLb,BLc) 상의 쓰기 가능 레이어(WLa,WLb,WLc)를 포함하고, 공유 컨테이너(SCO)는, 데이터 공유 애플리케이션(data share application)(DSA), 데이터 공유 애플리케이션(DSA) 상의 적어도 하나의 공유 레이어(SLOa,SLOb)를 포함한다.
한편, 본 발명의 실시예에 따르면, 복수의 서비스 컨테이너(COA~COC)는, 적어도 하나의 서비스 컨테이너(COA~COC) 실행 전에, 공유 컨테이너(SCO) 내의 공유 레이어(SLOa)를, 적어도 하나의 서비스 컨테이너(COA~COC) 내에 추가하고, 공유 레이어(SLOa) 추가 이후, 적어도 하나의 서비스 컨테이너(COA~COC)를 실행하고, 공유 컨테이너(SCO)는, 적어도 하나의 서비스 컨테이너(COA~COC)의 실행 종료 이후, 공유 레이어(SLOa)를 회수한다.
이에 따라, 복수의 서비스 컨테이너(COA~COC)는, 공유 레이어(SLOa)에 포함된 데이터를 지속적으로 저장하지 않아도 되므로, 설치시의 저장 공간이 저감되며, 실행시에도, 공유 레이어(SLOa)에 포함된 데이터를 일시적으로 사용함으로써, 리소를 효율적으로 관리할 수 있게 된다. 따라서, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
예를 들어, 제1 서비스 컨테이너(COA)는, 베이스 이미지 레이어(BLa)와, 쓰기 가능 레이어(WLa)를 구비하다가, 제1 서비스 컨테이너(COA) 실행 전에, 제1 공유 레이어(SLOb)를 공유 컨테이너(SCO)로부터 수신한다.
이에 따라, 제1 서비스 컨테이너(COA)는, 일시적으로, 베이스 이미지 레이어(BLa), 베이스 이미지 레이어(BLa) 상의 제1 공유 레이어(SLOb), 제1 공유 레이어(SLOb) 상의 쓰기 가능 레이어(WLa)를 포함할 수 있다.
그리고, 제1 서비스 컨테이너(COA)는, 베이스 이미지 레이어(BLa), 제1 공유 레이어(SLOb), 쓰기 가능 레이어(WLa)를 실행한다. 이에 따라, 제1 서비스 컨테이너(COA)를 통해, 애플리케이션이 원할하게, 그리고 효율적으로 수행될 수 있게 된다.
한편, 제1 서비스 컨테이너(COA)의 실행 종료 이후, 공유 컨테이너(SCO)는, 제1 서비스 컨테이너(COA)로부터 제1 공유 레이어(SLOb)를 회수한다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
다른 예로, 제2 서비스 컨테이너(COB)는, 베이스 이미지 레이어(BLb)와, 쓰기 가능 레이어(WLb)를 구비하다가, 제2 서비스 컨테이너(COB) 실행 전에, 제2 공유 레이어(SLOa)를 공유 컨테이너(SCO)로부터 수신하여, 베이스 이미지 레이어(BLb) 상에, 제2 공유 레이어(SLOa)를 실행하고, 제2 공유 레이어(SLOa) 상에 쓰기 가능 레이어(WLb)를 실행한다. 이에 따라, 제2 서비스 컨테이너(COB)를 통해, 애플리케이션이 원할하게, 그리고 효율적으로 수행될 수 있게 된다.
한편, 제2 서비스 컨테이너(COB)의 실행 종료 이후, 공유 컨테이너(SCO)는, 제2 서비스 컨테이너(COB)로부터 제2 공유 레이어(SLOa)를 회수한다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
또 다른 예로, 제3 서비스 컨테이너(COC)는, 베이스 이미지 레이어(BLc)와, 쓰기 가능 레이어(WLc)를 구비하다가, 제3 서비스 컨테이너(COC) 실행 전에, 제2 공유 레이어(SLOa)를 공유 컨테이너(SCO)로부터 수신하여, 베이스 이미지 레이어(BLc) 상에, 제2 공유 레이어(SLOa)를 실행하고, 제2 공유 레이어(SLOa) 상에 쓰기 가능 레이어(WLc)를 실행한다. 이에 따라, 제3 서비스 컨테이너(COC)를 통해, 애플리케이션이 원할하게, 그리고 효율적으로 수행될 수 있게 된다.
한편, 제3 서비스 컨테이너(COC)의 실행 종료 이후, 공유 컨테이너(SCO)는, 제2 서비스 컨테이너(COB)로부터 제2 공유 레이어(SLOa)를 회수한다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
한편, 본 발명의 실시예에 따른 프로세서(175) 또는 신호 처리 장치(170)는, 적어도 하나의 서비스 컨테이너(COA~COC) 중 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)가 실행되는 경우, 공유 컨테이너(SCO) 내의 제1 공유 레이어(SLOb)와 제2 공유 레이어(SLOa)를, 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB) 내에 각각 추가하고, 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)의 추가 이후, 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)를 실행하고, 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)를 실행 종료 이후, 제1 공유 레이어(SLOb)와 제2 공유 레이어(SLOa)를 각각 회수할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 본 발명의 실시예에 따른 프로세서(175) 또는 신호 처리 장치(170)는, 적어도 하나의 서비스 컨테이너(COA~COC) 중 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC)가 실행되는 경우, 공유 컨테이너(SCO) 내의 공통의 공유 레이어(SLOa)를, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC) 내에 각각 추가하고, 공통의 공유 레이어(SLOa)의 추가 이후, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC)를 실행하고, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC)를 실행 종료 이후, 공통의 공유 레이어(SLOa)를 회수할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너(SCO)는, 증강현실(AR) 데이터, 가상현실(VR) 데이터, 또는 융합현실(MR) 데이터를 포함하는 공유 레이어(SLOa)를 적어도 하나의 서비스 컨테이너(COA~COC) 내에 제공할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너(SCO) 내의 공유 레이어(SLOa)는, 애플리케이션을 위해 필요한 바이너리 파일, 라이브러리 파일, 및 컨피그레이션 파일을 포함할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
도 12 내지 도 17는 도 11의 설명에 참조되는 도면이다.
먼저, 도 12는 카메라 서비스 컨테이너가 설치되어 실행되는 것을 예시하는 도면이다.
도면을 참조하면, 도 12의 시스템(500sa)은, 도 11의 시스템(500s)와 유사하나, 적어도 하나의 서비스 컨테이너(COA~COC) 중 카메라 서비스 컨테이너(COA)가 실행되는 것에 그 차이가 있다.
시스템(500sa) 내의 프로세서(175)는, 제1 가상화 머신 내지 제2 가상화 머신(520, 530)을 실행하고, 제2 가상화 머신(530)은, 카메라 서비스 컨테이너(COA)와 공유 컨테이너(SCO)를 실행할 수 있다.
한편, 제2 가상화 머신(520)은, 카메라 서비스 컨테이너(COA) 내에 검출 엔진 레이어(DEL)가 없는 경우, 비디오 디바이스(VDC)에 바로 접속할 수 있다.
즉, 카메라 서비스 컨테이너(COA) 내에 검출 엔진 레이어(DEL)가 없는 경우, 카메라 서비스 컨테이너(COA)는, 비디오 디바이스(VDC)에 바로 접속하여, 데이터를 전송하거나, 데이터를 수신할 수 있다.
도면에서는, 카메라 서비스 컨테이너(COA) 내에 카메라 서비스(CAS)만이 포함되고, 검출 엔진 레이어(DEL)가 없는 경우를 예시한다. 이때, 카메라 서비스(CAS)는, 비디오 디바이스(VDC)에 바로 접속하여, 데이터를 전송하거나, 데이터를 수신할 수 있다.
이때의 비디오 디바이스(VDC)는, 하드웨어 장치 또는 하드웨어 장치의 구동을 위한 구동 드라이버일 수 있다.
한편, 카메라 서비스 컨테이너(COAb) 내에 검출 엔진 레이어(DEL)가 있는 경우, 카메라 서비스 컨테이너(COA)는, 검출 엔진 레이어(DEL) 내의 검출 엔진을 이용하여 비디오 디바이스(VDC)에 접속할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
도면에서는, 카메라 서비스 컨테이너(COAb) 내에 카메라 서비스(CAS), 및 검출 엔진 레이어(DEL)가 있는 경우를 예시한다.
한편, 카메라 서비스 컨테이너(COAb) 내의 검출 엔진 레이어(DEL)는, 가상 비디오 디바이스(VVD)와 검출 엔진(DEG)를 구비할 수 있다.
이때의 검출 엔진(DEG)은, 공유 컨테이너(SCOb) 내의 데이터 공유 애플리케이션(DSA)과, 검출 엔진 레이어(DELa) 중 검출 엔진 레이어(DELa)로부터의 데이터에 기초하여 생성된 것일 수 있다.
한편, 본 발명의 실시예에 따른 프로세서(175) 또는 신호 처리 장치(170)는, 카메라 서비스 컨테이너(COAb) 내에 검출 엔진 레이어(DEL)가 없는 경우, 공유 컨테이너(SCOb) 내의 검출 엔진 레이어(DEL)를, 카메라 서비스 컨테이너(COAb) 내에 추가하고, 검출 엔진 레이어(DEL) 내의 검출 엔진(DEG)을 이용하여 비디오 디바이스(VDC)에 접속할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
도 13은 복수의 서비스 컨테이너가 그룹별로 구분되는 것을 예시하는 도면이다.
도면을 참조하면, 도 13의 시스템(500sb)은, 도 11의 시스템(500s)와 유사하나, 복수의 서비스 컨테이너(COA~COC) 중 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)와 공유 컨테이너(SCob)가 제1 그룹(PDa)이며, 제3 서비스 컨테이너(COC)가 제2 그룹(PDb)으로 분리되는 것에 그 차이가 있다.
즉, 시스템(500sb) 내의 프로세서(175)는, 제1 가상화 머신 내지 제2 가상화 머신(520, 530)을 실행하고, 제2 가상화 머신(530)은, 복수의 서비스 컨테이너(COA~COC)와 공유 컨테이너(SCO)를 실행할 수 있다.
다만, 복수의 서비스 컨테이너(COA~COC) 중 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)가, 제1 그룹(PDa)이므로, 공유 컨테이너(SCO)는, 복수의 서비스 컨테이너 중 제1 그룹(PDa)의 서비스 컨테이너(COA,COB)에만 공유 레이어를 제공하고, 제1 그룹(PDa)과 제2 그룹(PDb)의 서비스 컨테이너(COC)에는 공유 레이어를 제공하지 않는다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 동일 그룹(PDa) 내의 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 도면에서는, 공유 레이어의 일예로, 검출 엔진 레이어(DELa)를 예시한다.
즉, 공유 컨테이너(SCO)는, 데이터 공유 애플리케이션(DSA)과, 공유 레이어의 일예인 검출 엔진 레이어(DELa)를 포함할 수 있으며, 제1 서비스 컨테이너(COA)와 제2 서비스 컨테이너(COB)로, 공유 레이어로서 검출 엔진 레이어(DELa)를 제공할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 동일 그룹(PDa) 내의 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 프로세서(175)는, 적어도 하나의 서비스 컨테이너(COA~COC)의 관리를 위한 컨테이너 매니저(CMa)를 실행하고, 공유 컨테이너(SCO)는, 데이터 공유 어플리케이션(DSA)을 실행할 수 있다. 이에 따라, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 서비스 컨테이너 매니저(CMa)는, 적어도 하나의 서비스 컨테이너(COA~COC)의 라이프사이클 관리, 실행 시점 관리, 실행 중 관리 또는 그룹 내 관리 중 적어도 하나를 수행할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 데이터 공유 어플리케이션(DSA)은, 그룹(PDa) 내 컨테이너(COA,COB)에 대한 특정 레이어 공유 또는, 접근 권한 제한을 수행할 수 있다. 이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
도 14는 본 발명의 실시예에 따른 신호 처리 장치(170)의 동작을 나타내는 순서도이다.
도면을 참조하면, 본 발명의 실시예에 따른 프로세서(175) 또는 신호 처리 장치(170)는, 공유 컨테이너(SCO)를 설치한다(S1405).
예를 들어, 프로세서(175) 또는 신호 처리 장치(170)는, 제1 가상화 머신 내지 제2 가상화 머신(520~530) 중 적어도 하나에 공유 컨테이너(SCO)를 설치할 수 있다.
한편, 도 11에서는, 제2 가상화 머신(520~530)에 공유 컨테이너(SCO)가 설치되는 것을 예시한다.
다음, 본 발명의 실시예에 따른 프로세서(175) 또는 신호 처리 장치(170)는, 서버(60)로부터 제1 서비스 컨테이너(COA)를 다운로드하여 설치한다(S1410).
예를 들어, 프로세서(175) 또는 신호 처리 장치(170)는, 제1 가상화 머신 내지 제2 가상화 머신(520~530) 중 적어도 하나에, 제1 서비스 컨테이너(COA)를 설치할 수 있다.
한편, 도 11에서는, 제2 가상화 머신(520~530)에 제1 서비스 컨테이너(COA)가 설치되는 것을 예시한다.
한편, 설치되는 제1 서비스 컨테이너(COA)는, 베이스 이미지 레이어(BLa), 베이스 이미지 레이어(BLa) 상의 쓰기 가능 레이어(WLa)를 포함할 수 있다.
다음, 프로세서(175) 또는 신호 처리 장치(170)는, 제1 서비스 컨테이너(COA) 실행 전에, 제1 서비스 컨테이너(COA) 내의 레이어를 확인할 수 있다(S1415).
특히, 컨테이너 매니저(CMa)는, 제1 서비스 컨테이너(COA) 내에 공유 레이어가 존재하는 지 여부를 확인할 수 있다(S1420).
한편, 프로세서(175) 또는 신호 처리 장치(170)는, 제1 서비스 컨테이너(COA) 내에 공유 레이어가 존재하지 않는 경우, 공유 컨테이너(SCO)로 공유 레이어의 공유를 요청한다(S1425).
한편, 프로세서(175) 또는 신호 처리 장치(170) 내의 공유 컨테이너(SCO)는, 공유 레이어의 공유 요청에 대해, 접근 권한 확인을 수행하고, 해당하는 경우 승인한다(S1430).
그리고, 프로세서(175) 또는 신호 처리 장치(170) 내의 공유 컨테이너(SCO)는, 공유 레이어를 로컬 위치에서 공유한다(S1435).
이에 대응하여, 프로세서(175) 또는 신호 처리 장치(170)는, 제1 서비스 컨테이너(COA) 내에 공유 레이어를 추가하고, 추가된 공유 레이어를 포함하는 공유 레이어(COA)를 실행한다(S1440).
도 10에서는, 제1 서비스 컨테이너(COA) 내에 제1 공유 레이어(SLOb)가 추가되어, 추가된 제1 공유 레이어(SLOb)를 포함하는 제1 서비스 컨테이너(COA)를 실행하는 것을 예시한다.
다음, 프로세서(175) 또는 신호 처리 장치(170) 내의 공유 컨테이너(SCO)는, 제1 서비스 컨테이너(COA)의 실행을 종료한다(S1445).
제1 서비스 컨테이너(COA)의 실행 종료에 대응하여, 컨테이너 매니저(CMa)는, 공유 컨테이너(SCO)로 공유 레이어의 회수를 요청한다(S1450).
이에 따라, 프로세서(175) 또는 신호 처리 장치(170) 내의 공유 컨테이너(SCO)는, 공유 레이어의 회수 요청에 대응하여, 제1 서비스 컨테이너(COA) 내에 공유 레이어(SLO)를 회수한다(S1455).
도 10에서, 공유 컨테이너(SCO)는, 공유 레이어의 회수 요청에 대응하여, 제1 서비스 컨테이너(COA) 내에 제1 공유 레이어(SLOb)를 회수할 수 있다.
이에 따라, 제1 서비스 컨테이너(COA)의 실행 종료 이후, 제1 서비스 컨테이너(COA) 내에, 베이스 이미지 레이어(BLa), 베이스 이미지 레이어(BLa) 상의 쓰기 가능 레이어(WLa)만 남겨질 수 있다.
이에 따라, 서비스 컨테이너에 기반한 애플리케이션을 효율적으로 실행할 수 있게 된다. 특히, 공유 컨테이너(SCO)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다. 또한, 서비스 컨테이너 설치시의 저장 공간을 최소화할 수 있게 된다.
도 15는 공유 레이어로서 모니터 서비스 레이어를 예시하는 도면이다.
도면을 참조하면, 도 15의 시스템(500sc)은, 도 11의 시스템(500s)와 유사하나, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC)의 실행시에, 공유 레이어로서 모니터 서비스 레이어(MSL)가 추가되어 실행되는 것에 그 차이가 있다.
시스템(500sc) 내의 프로세서(175)는, 제1 가상화 머신 내지 제2 가상화 머신(520, 530)을 실행하고, 제2 가상화 머신(530)은, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC)와 공유 컨테이너(SCOc)를 실행할 수 있다.
한편, 제2 가상화 머신(520)은, 제2 서비스 컨테이너(COB)와 제3 서비스 컨테이너(COC) 내에 공유 레이어로서 모니터 서비스 레이어(MSL)가 없는 경우, 공유 컨테이너(SCOc)로부터 모니터 서비스 레이어(MSL)를 수신하여 추가할 수 있다.
이때, 공유 컨테이너(SCOc)는, 모니터 서비스 레이어(MSL)의 공유 요청에 대해, 접근 권한 확인을 수행하고, 해당하는 경우 승인할 수 있다.
이에 따라, 제2 서비스 컨테이너(COB)는, 베이스 이미지 레이어(BLb)와 쓰기 가능 레이어(WLb) 사이에, 모니터 서비스 레이어(SLb)를 추가한 후, 실행될 수 있다.
유사하게, 제3 서비스 컨테이너(COC)는, 베이스 이미지 레이어(BLc)와 쓰기 가능 레이어(WLc) 사이에, 모니터 서비스 레이어(SLc)를 추가한 후, 실행될 수 있다.
결국, 공유 컨테이너(SCOc)는, 모니터 서비스 레이어(MSL)를 포함하고, 모니터 서비스 레이어(MSL)를, 적어도 하나의 서비스 컨테이너(COB~COC)로 제공할 수 있다. 이에 따라, 공유 컨테이너(SCOc)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
도 16과 도 17은 공유 레이어로서 네트워크 인터페이스 레이어를 예시하는 도면이다.
도면을 참조하면, 도 16의 시스템(500t)은, 도 11의 시스템(500s)와 유사하나, 제2 서비스 컨테이너(COB)의 실행시에, 공유 레이어로서 네트워크 인터페이스 레이어(NIL)가 추가되어 실행되는 것에 그 차이가 있다.
시스템(500t) 내의 프로세서(175)는, 제1 가상화 머신 내지 제2 가상화 머신(520, 530)을 실행하고, 제2 가상화 머신(530)은, 제2 서비스 컨테이너(COB)와 공유 컨테이너(SCOd)를 실행할 수 있다.
한편, 제2 가상화 머신(520)은, 제2 서비스 컨테이너(COB) 내에 공유 레이어로서 네트워크 인터페이스 레이어(NIL)가 없는 경우, 공유 컨테이너(SCOd)로부터 네트워크 인터페이스 레이어(NIL)를 수신하여 추가할 수 있다.
이때, 공유 컨테이너(SCOd)는, 네트워크 인터페이스 레이어(NIL)의 공유 요청에 대해, 접근 권한 확인을 수행하고, 해당하는 경우 승인할 수 있다.
이에 따라, 제2 서비스 컨테이너(COB)는, 베이스 이미지 레이어(BLb)와 쓰기 가능 레이어(WLb) 사이에, 네트워크 인터페이스 레이어(SLb)를 추가한 후, 실행될 수 있다.
결국, 공유 컨테이너(SCOd)는, 네트워크 인터페이스 레이어(NIL)를 포함하고, 네트워크 인터페이스 레이어(NIL)를, 적어도 하나의 서비스 컨테이너(COB)로 제공할 수 있다. 이에 따라, 공유 컨테이너(SCOd)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
한편, 공유 컨테이너(SCOd)는, 네트워크 인터페이스 레이어(NIL)를 포함하고, 네트워크 인터페이스 레이어(NIL)를, 적어도 하나의 서비스 컨테이너(COB)로 제공하며, 네트워크 인터페이스 레이어(NIL)가 제공된 서비스 컨테이너(COB)는, 네트워크 인터페이스 레이어(NIL)를 이용하여, 다른 가상화 머신(540) 또는 다른 신호 처리 장치(170b)로 데이터를 전송할 수 있다. 이에 따라, 공유 컨테이너(SCOd)를 활용하여 애플리케이션을 효율적으로 실행할 수 있게 된다.
도 16에서는, 제2 서비스 컨테이너(COB) 내에 네트워크 인터페이스 레이어(NIL)가 추가되고, 제2 서비스 컨테이너(COB)는, 컨테이너 매니저(CMa)와, 입출력 가상화(VSA)를 통해, 제3 가상화 머신(540) 내의 소정 서비스(SEc)에, 공유 레이어로서, 네트워크 인터페이스 레이어(NIL)가 전송되는 것을 예시한다. 이에 따라, 다른 가상화 머신에도, 공유 레이어를 전송할 수 있게 된다.
도면을 참조하면, 도 17의 시스템(500tb)은, 도 16의 시스템(500t)과 유사하며, 특히, 제2 서비스 컨테이너(COB)의 실행시에, 공유 레이어로서 네트워크 인터페이스 레이어(NIL)가 추가되어 실행되는 것이 동일하다.
다만, 도 17의 시스템(500tb)은, 도 16의 시스템(500t)과 달리, 별도의 제2 신호 처리 장치(170b) 상에서, 제2 서버 가상화 머신(520b)과, 제2 게스트 가상화 머신(530b)가 더 실행되는 것에 그 차이가 있다.
이에 따라, 제2 서비스 컨테이너(COB) 내에 네트워크 인터페이스 레이어(NIL)가 추가되고, 제2 서비스 컨테이너(COB)는, 컨테이너 매니저(CMa)와, 입출력 가상화(VSA)와 제2 입출력 가상화(VSAb)를 통해, 제2 신호 처리 장치(170b) 상d에서 실행되는 제2 게스트 가상화 머신(530b) 내의 소정 서비스(SEcb)에, 공유 레이어로서, 네트워크 인터페이스 레이어(NIL)가 전송될 수 있다. 이에 따라, 다른 신호 처리 장치(170b)에도, 공유 레이어를 전송할 수 있게 된다.
한편, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (20)

  1. 차량에 장착되는 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하는 신호 처리 장치에 있어서,
    상기 프로세서는,
    제1 가상화 머신 내지 제2 가상화 머신을 실행하며,
    상기 제1 가상화 머신은 서버 가상화 머신으로 동작하며, 상기 제2 가상화 머신은 게스트 가상화 머신으로 동작하며,
    상기 제1 가상화 머신 내지 제2 가상화 머신 중 적어도 하나는,
    컨테이너 엔진 상에서 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하고,
    상기 적어도 하나의 서비스 컨테이너 실행 전에, 상기 공유 컨테이너 내의 공유 레이어를, 상기 적어도 하나의 서비스 컨테이너 내에 추가하고, 상기 공유 레이어 추가 이후, 상기 적어도 하나의 서비스 컨테이너를 실행하고, 상기 적어도 하나의 서비스 컨테이너의 실행 종료 이후, 상기 공유 레이어를 회수하는 하는 것을 특징으로 하는 신호 처리 장치.
  2. 제1항에 있어서,
    상기 제2 가상화 머신은 상기 공유 컨테이너와 적어도 하나의 서비스 컨테이너를 실행하는 것을 특징으로 하는 신호 처리 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 상기 공유 컨테이너 내의 제1 공유 레이어와 제2 공유 레이어를, 상기 제1 서비스 컨테이너와 상기 제2 서비스 컨테이너 내에 각각 추가하고,
    상기 제1 서비스 컨테이너와 상기 제2 서비스 컨테이너의 추가 이후, 상기 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 상기 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 상기 제1 공유 레이어와 제2 공유 레이어를 회수하는 것을 특징으로 하는 신호 처리 장치.
  4. 제1항에 있어서,
    상기 적어도 하나의 서비스 컨테이너 중 제1 서비스 컨테이너와 제2 서비스 컨테이너가 실행되는 경우, 상기 공유 컨테이너 내의 공통의 공유 레이어를, 상기 제1 서비스 컨테이너와 상기 제2 서비스 컨테이너 내에 각각 추가하고,
    상기 공통의 공유 레이어의 추가 이후, 상기 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행하고, 상기 제1 서비스 컨테이너와 제2 서비스 컨테이너를 실행 종료 이후, 상기 공통의 공유 레이어를 회수하는 것을 특징으로 하는 신호 처리 장치.
  5. 제1항에 있어서,
    상기 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 비디오 디바이스에 접속하며,
    상기 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 있는 경우, 상기 검출 엔진 레이어 내의 검출 엔진을 이용하여 상기 비디오 디바이스에 접속하는 것을 특징으로 하는 신호 처리 장치.
  6. 제1항에 있어서,
    상기 적어도 하나의 서비스 컨테이너 중 카메라 서비스 컨테이너 내에 검출 엔진 레이어가 없는 경우, 상기 공유 컨테이너 내의 검출 엔진 레이어를, 상기 카메라 서비스 컨테이너 내에 추가하고, 상기 검출 엔진 레이어 내의 검출 엔진을 이용하여 상기 비디오 디바이스에 접속하는 것을 특징으로 하는 신호 처리 장치.
  7. 제1항에 있어서,
    상기 공유 컨테이너는,
    복수의 서비스 컨테이너 중 제1 그룹의 서비스 컨테이너에만 상기 공유 레이어를 제공하고, 상기 제1 그룹과 다른 그룹의 서비스 컨테이너에는 상기 공유 레이어를 제공하지 않는 것을 특징으로 하는 신호 처리 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 서비스 컨테이너의 관리를 위한 컨테이너 매니저를 실행하고,
    상기 공유 컨테이너는, 데이터 공유 어플리케이션을 실행하는 것을 특징으로 하는 신호 처리 장치.
  9. 제8항에 있어서,
    상기 서비스 컨테이너 매니저는,
    상기 적어도 하나의 서비스 컨테이너의 라이프사이클 관리, 실행 시점 관리, 실행 중 관리 또는 그룹 내 관리 중 적어도 하나를 수행하는 것을 특징으로 하는 신호 처리 장치.
  10. 제8항에 있어서,
    상기 데이터 공유 어플리케이션은,
    그룹 내 컨테이너에 대한 특정 레이어 공유 또는, 접근 권한 제한을 수행하는 것을 특징으로 하는 신호 처리 장치.
  11. 제1항에 있어서,
    상기 공유 컨테이너는,
    모니터 서비스 레이어를 포함하고, 상기 모니터 서비스 레이어를, 상기 적어도 하나의 서비스 컨테이너로 제공하는 것을 특징으로 하는 신호 처리 장치.
  12. 제1항에 있어서,
    상기 공유 컨테이너는,
    네트워크 인터페이스 레이어를 포함하고, 상기 네트워크 인터페이스 레이어를, 상기 적어도 하나의 서비스 컨테이너로 제공하며,
    상기 네트워크 인터페이스 레이어가 제공된 서비스 컨테이너는, 상기 네트워크 인터페이스 레이어를 이용하여, 다른 가상화 머신 또는 다른 신호 처리 장치로 데이터를 전송하는 것을 특징으로 하는 신호 처리 장치.
  13. 제1항에 있어서,
    상기 공유 컨테이너는,
    증강현실(AR) 데이터, 가상현실(VR) 데이터, 또는 융합현실(MR) 데이터를 포함하는 공유 레이어를 상기 적어도 하나의 서비스 컨테이너 내에 제공하는 것을 특징으로 하는 신호 처리 장치.
  14. 제1항에 있어서,
    상기 공유 컨테이너 내의 공유 레이어는,
    애플리케이션을 위해 필요한 바이너리 파일, 라이브러리 파일, 및 컨피그레이션 파일을 포함하는 것을 특징으로 하는 신호 처리 장치.
  15. 제1항에 있어서,
    상기 서비스 컨테이너는,
    베이스 이미지 레이어, 상기 베이스 이미지 레이어 상의 상기 공유 레이어, 상기 공유 레이어 상의 쓰기 가능 레이어를 포함하는 것을 특징으로 하는 신호 처리 장치.
  16. 제1항에 있어서,
    상기 프로세서는,
    하이퍼바이저를 실행하며, 상기 하이퍼바이저 상에, 상기 제1 가상화 머신 내지 제3 가상화 머신을 실행하는 것을 특징으로 하는 신호 처리 장치.
  17. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 가상화 머신 내의 컨테이너 엔진을 실행하고, 상기 컨테이너 엔진 상에서 상기 서비스 컨테이너를 실행하는 것을 특징으로 하는 신호 처리 장치.
  18. 제1항에 있어서,
    상기 프로세서는,
    서버로부터 제1 서비스 컨테이너를 다운로드하여 설치하고, 상기 제1 서비스 컨테이너 내에 상기 공유 레이어를 추가하는 것을 특징으로 하는 신호 처리 장치.
  19. 제16항에 있어서,
    제2 가상화 머신과 제3 가상화 머신은 서로 다른 운영 체제로 실행되는 것을 특징으로 하는 신호 처리 장치.
  20. 제1 디스플레이;
    제2 디스플레이;
    상기 제1 디스플레이 및 상기 제2 디스플레이를 위한 신호 처리를 수행하는 프로세서를 포함하는 신호 처리 장치;를 구비하고,
    상기 신호 처리 장치는, 제1항 내지 제19항 중 어느 한 항의 신호 처리 장치를 포함하는 것을 특징으로 하는 차량용 디스플레이 장치.
PCT/KR2021/019305 2021-12-17 2021-12-17 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치 WO2023113079A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/019305 WO2023113079A1 (ko) 2021-12-17 2021-12-17 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/019305 WO2023113079A1 (ko) 2021-12-17 2021-12-17 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Publications (1)

Publication Number Publication Date
WO2023113079A1 true WO2023113079A1 (ko) 2023-06-22

Family

ID=86774577

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/019305 WO2023113079A1 (ko) 2021-12-17 2021-12-17 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Country Status (1)

Country Link
WO (1) WO2023113079A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422489B1 (ko) * 1999-12-24 2004-03-11 미쓰비시덴키 가부시키가이샤 차량 탑재 정보 처리 장치
JP6523298B2 (ja) * 2014-01-06 2019-05-29 ジョンソン コントロールズ テクノロジー カンパニーJohnson Controls Technology Company コンピュータシステムと車両インターフェースシステム
KR102187040B1 (ko) * 2019-09-02 2020-12-04 김한수 복수의 가상 운영체제 구성을 통한 가상 wifi 네트워크 설정 방법 및 이를 수행하는 프로그램
JP2020201761A (ja) * 2019-06-11 2020-12-17 株式会社デンソー 車両用制御装置、車両用表示システム、及び車両用表示制御方法
JP2021166006A (ja) * 2020-04-08 2021-10-14 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100422489B1 (ko) * 1999-12-24 2004-03-11 미쓰비시덴키 가부시키가이샤 차량 탑재 정보 처리 장치
JP6523298B2 (ja) * 2014-01-06 2019-05-29 ジョンソン コントロールズ テクノロジー カンパニーJohnson Controls Technology Company コンピュータシステムと車両インターフェースシステム
JP2020201761A (ja) * 2019-06-11 2020-12-17 株式会社デンソー 車両用制御装置、車両用表示システム、及び車両用表示制御方法
KR102187040B1 (ko) * 2019-09-02 2020-12-04 김한수 복수의 가상 운영체제 구성을 통한 가상 wifi 네트워크 설정 방법 및 이를 수행하는 프로그램
JP2021166006A (ja) * 2020-04-08 2021-10-14 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Similar Documents

Publication Publication Date Title
WO2018030618A1 (en) Electronic device including flexible display
WO2020231083A1 (ko) 열전달 구조를 포함하는 전자 장치
WO2016047887A1 (ko) 이동단말기의 운용 체제 전환장치 및 방법, 차량 및 그 차량의 운용 체제 전송장치 및 방법
WO2022182103A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2019045271A1 (en) BATTERY SUPPORT STRUCTURE AND ELECTRONIC DEVICE HAVING THE SAME
WO2021162320A1 (en) Electronic device and method for operating high speed screen of electronic device
WO2022019484A1 (ko) 디스플레이를 포함하는 전자 장치 및 그의 디스플레이 제어 방법
WO2018076875A1 (zh) 备份数据的同步方法、装置、存储介质、电子设备及服务器
WO2019083258A1 (en) DATA ENCRYPTION METHOD AND ELECTRONIC APPARATUS EXECUTING A DATA ENCRYPTION METHOD
WO2019143081A1 (ko) 데이터 통신을 제어하는 방법 및 전자 장치
WO2019194428A1 (ko) 외부 전자 장치의 키를 공유하는 전자 장치 및 전자 장치의 동작 방법
WO2023113079A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2021230499A1 (ko) 폴더블 전자 장치 및 그의 알림 표시 제어 방법
WO2023113078A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2023195559A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2022103093A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2024034709A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2024034708A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2024085283A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2019139373A1 (en) Method of providing notification and electronic device supporting same
WO2023136376A1 (ko) 차량용 디스플레이 장치
WO2022240217A1 (ko) 신호 처리 장치 및 이를 구비하는 차량용 통신 장치
WO2023101070A1 (ko) 차량용 통신 장치 및 이를 구비하는 차량용 디스플레이 장치
WO2023136373A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치
WO2023136374A1 (ko) 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968288

Country of ref document: EP

Kind code of ref document: A1