KR20220141664A - 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법 - Google Patents

차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법 Download PDF

Info

Publication number
KR20220141664A
KR20220141664A KR1020210048045A KR20210048045A KR20220141664A KR 20220141664 A KR20220141664 A KR 20220141664A KR 1020210048045 A KR1020210048045 A KR 1020210048045A KR 20210048045 A KR20210048045 A KR 20210048045A KR 20220141664 A KR20220141664 A KR 20220141664A
Authority
KR
South Korea
Prior art keywords
vehicle
electronic device
control interface
information
mobile device
Prior art date
Application number
KR1020210048045A
Other languages
English (en)
Inventor
김태준
강민규
이웅
조와룡
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210048045A priority Critical patent/KR20220141664A/ko
Priority to EP21937101.0A priority patent/EP4254920A4/en
Priority to PCT/KR2021/019102 priority patent/WO2022220368A1/ko
Priority to CN202180096953.0A priority patent/CN117157965A/zh
Priority to US17/568,029 priority patent/US20220324325A1/en
Publication of KR20220141664A publication Critical patent/KR20220141664A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

차량용 전자 장치와 통신을 수행하는 통신부, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 메모리에 저장된 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고, 프로세서는, 차량용 전자 장치로부터 차량용 전자 장치의 콘텍스트 정보 및 차량의 주행 상태 정보를 수신하도록 통신부를 제어하고, 차량용 전자 장치의 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 차량용 전자 장치를 제어하기 위한 제어 인터페이스를 생성하고, 제어 인터페이스를 출력하도록 디스플레이를 제어하는, 모바일 장치가 개시된다.

Description

차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법{Vehicle electronic device, mobile device for controlling vehicle electronic device, and method for controlling the vehicle electronic device by using the mobile device}
다양한 실시예들은 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치, 모바일 장치를 이용하여 차량용 전자 장치를 제어하는 방법에 관한 것이다. 더욱 상세하게는 모바일 장치에 제공되는 제어 인터페이스를 이용하여, 차량용 전자 장치를 제어할 수 있도록 하는 차량용 전자 장치, 모바일 장치, 및 차량용 전자 장치를 제어하는 방법에 관한 것이다.
차량을 이용하는 사용자의 요구 및 편리성을 더욱 더 증가시킬 수 있도록 하는 다양한 기능들이 개발 및 적용되고 있다. 예를 들어, 사용자의 모바일 장치(예를 들어, 스마트폰)에 대한 경험을 차량 환경에서도 연속적으로 이용할 수 있도록 모바일 장치와 차량용 전자 장치를 통신 연결하여, 차량용 전자 장치에서, 모바일 장치에 설치된 일부 어플리케이션을 이용할 수 있다. 그러나, 해당 기능은 모바일 장치의 기능을 차량 환경에서 이용할 수는 있으나, 모바일 장치에서 차량용 전자 장치의 기능을 제어할 수는 없다.
또한, 차량용 전자 장치와 모바일 장치를 연동시켜, 모바일 장치에서 차량용 전자 장치의 일부 기능을 제어할 수 있는 기능을 제공한다. 그러나, 해당 기능을 사용하기 위해서는 사용자가 직접 차량용 전자 장치의 콘테스트에 대응하는 제어 모드로 진입해야 하기 때문에, 차량 주행 중에는 사용에 제약이 생길 수 있으며, 운전자의 주위나 시선이 분산되어 위험을 초래할 수 있다.
다양한 실시예들은, 페어링되는 모바일 기기를 통하여 사용자의 조작 편리성을 높일 수 있는 제어 인터페이스가 출력되도록 하는 차량용 전자 장치를 제공한다. 또한, 모바일 기기에서 출력되는 제어 인터페이스를 통하여 입력되는 제어 입력에 기초하여, 제어 동작을 수행하는 차량용 전자 장치를 제공한다. 구체적으로, 다양한 실시예들은, 통신 연결된 모바일 장치로 차량용 전자 장치의 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자의 상태 정보 중 적어도 하나를 전송하고, 모바일 장치로부터 수신한 제어 입력에 기초하여, 제어 동작을 수행하는 차량용 전자 장치를 제공한다.
또한, 다양한 실시예들은, 사용자의 조작 편리성을 높일 수 있는 제어 인터페이스를 출력할 수 있는 모바일 장치를 제공한다. 구체적으로, 다양한 실시예들은, 차량용 전자 장치의 콘텍스트 정보에 기초하여, 차량용 전자 장치의 콘텍스트에 따라 적절한 제어 인터페이스를 제공할 수 있는 모바일 장치를 제공한다.
또한, 다양한 실시예들은, 차량의 주행 상태 정보나 차량 운전자의 상태 정보에 기초하여, 적절한 제어 인터페이스를 제공할 수 있는 모바일 장치를 제공한다.
일 실시예에 따른 차량용 전자 장치를 제어하는 모바일 장치는, 상기 차량용 전자 장치와 통신을 수행하는 통신부, 디스플레이, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 차량용 전자 장치로부터 상기 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보를 수신하도록 상기 통신부를 제어하고, 상기 차량용 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보에 기초하여, 상기 차량용 전자 장치를 제어하기 위한 제어 인터페이스를 생성하고, 상기 제어 인터페이스를 출력하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 차량용 전자 장치의 콘텍스트 정보는, 상기 차량용 전자 장치에서 실행 중인 기능에 대한 정보 및 상기 실행 중인 기능에서 이용 가능한 제어 기능에 대한 정보 중 적어도 하나를 포함하고, 상기 차량의 주행 상태 정보는, 상기 차량의 주행 여부 및 상기 차량의 주행 속도 정보 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른 프로세서는, 상기 콘텍스트 정보에 기초하여, 입력 가능한 제어 기능들을 결정하고, 결정된 제어 기능들 중 적어도 일부를 포함하는 상기 제어 인터페이스를 생성할 수 있다.
일 실시예에 따른 프로세서는, 상기 차량이 정차 중인 경우, 제1 제어 인터페이스를 생성하고, 상기 차량이 주행 중인 경우, 제2 제어 인터페이스를 생성하고, 상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적을 수 있다.
일 실시예에 따른 모바일 장치는, 상기 제어 인터페이스에 대한 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 프로세서는, 상기 사용자 입력에 대응하는 입력 정보를 상기 차량용 전자 장치로 전송하도록 상기 통신부를 제어할 수 있다.
일 실시예에 따른 프로세서는, 상기 차량용 전자 장치로부터, 상기 차량을 운전하는 운전자 상태 정보를 수신하고, 상기 운전자 상태 정보에 기초하여, 상기 제어 인터페이스를 생성할 수 있다.
일 실시예에 따른 프로세서는, 상기 운전자 상태 정보가 정상 상태를 나타내는 경우, 제1 제어 인터페이스를 생성하고, 상기 운전자 상태 정보가 비정상 상태를 나타내는 경우, 제2 제어 인터페이스를 생성하도록 상기 디스플레이를 제어하며, 상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적을 수 있다.
일 실시예에 따른 프로세서는, 상기 운전자 상태 정보에 기초하여, 경고음, 진동, 및 알림 메시지 중 적어도 하나를 출력하도록 제어할 수 있다.
일 실시예에 따른 차량용 전자 장치는, 모바일 장치와 통신을 수행하는 통신부, 하나 이상의 인스트럭션들을 저장하는 메모리, 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고, 상기 프로세서는, 상기 차량용 전자 장치에서 실행 중인 기능과 관련된 콘텍스트 정보 및 차량의 주행 상태 정보를 상기 모바일 장치로 전송하도록 상기 통신부를 제어하고, 상기 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여 상기 모바일 장치에 생성된 제어 인터페이스를 통하여 수신되는 사용자 입력에 대응되는 입력 정보를 상기 모바일 장치로부터 수신하고, 상기 입력 정보에 대응하는 제어 동작을 수행할 수 있다.
일 실시예에 따른 차량용 전자 장치는, 상기 차량용 전자 장치에서 실행 중인 기능에 대응하는 인터페이스 화면을 출력하는 디스플레이를 더 포함하고, 상기 프로세서는 상기 제어 동작이 수행됨에 따라 업데이트되는 상기 인터페이스 화면을 출력하도록 상기 디스플레이를 제어할 수 있다.
일 실시예에 따른 프로세서는, 상기 차량의 차량 센서 모듈로부터 상기 차량의 주행과 관련된 정보를 수신하고, 상기 차량의 주행과 관련된 정보에 기초하여, 상기 차량의 주행 상태 정보를 획득할 수 있다.
일 실시예에 따른 프로세서는, 상기 차량을 운전하는 운전자 상태 정보를 획득하고, 상기 운전자 상태 정보를 상기 모바일 장치로 전송하도록 상기 통신부를 제어할 수 있다.
일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법은, 상기 전자 장치로부터 상기 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보를 수신하는 단계, 상기 차량용 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보에 기초하여, 상기 차량용 전자 장치를 제어하기 위한 제어 인터페이스를 생성하는 단계, 및 상기 제어 인터페이스를 출력하는 단계를 포함할 수 있다.
일 실시예에 따른 모바일 장치를 이용하여, 차량을 제어하는 방법은 차량용 전자 장치의 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자의 상태 정보 중 적어도 하나에 기초하여, 적절한 제어 인터페이스를 자동으로 제공할 수 있어, 운전자는 용이하고 편리하게 차량용 전자 장치를 제어할 수 있다.
또한, 주행 상황이나 운전자 상태에 따라 제어 환경을 제공할 수 있어, 운전자의 주위 및 시선 분산을 줄여, 안전하게 차량 기능을 제어하도록 할 수 있다. 이에 따라, 사용자의 편의는 최대한으로 높이면서, 운전자 안전(Driver Safety)을 개선할 수 있다.
도 1은 일 실시예에 따른 차량용 전자 장치 및 차량용 전자 장치를 제어하는 모바일 장치를 나타내는 도면이다.
도 2는 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 3a 내지 도 3c는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보에 기초하여, 제어 인터페이스를 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 4는 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따른 차량용 전자 장치의 구성을 나타내는 블록도이다.
도 6은 일 실시예에 따른 모바일 장치의 구성을 나타내는 블록도이다.
도 7a 내지 도 7c는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 8은 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 9a 및 도 9b는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 10은 다른 실시예에 따른 차량용 전자 장치의 구성을 나타내는 블록도이다.
도 11은 다른 실시예에 따른 모바일 장치의 구성을 나타내는 블록도이다.
도 12는 개시된 실시예에서 인공 지능 기술을 이용하여 수행되는 동작을 설명하기 위한 도면이다.
도 13은 서버와 연동하여 동작하는 개시된 실시예에 따른 차량용 전자 장치를 나타내는 도면이다.
도 14는 도 13을 상세하게 설명하기 위한 도면이다.
도 15는 서버와 연동하여 동작하는 개시된 실시예에 따른 모바일 장치를 나타내는 도면이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
또한, 'A, B, 및 C 중 적어도 하나'라는 기재는 'A’, ‘B', ‘C’, ‘A 및 B’, ‘A 및 C’, ‘B 및 C’, 및 ‘A, B, 및 C’ 중 어느 하나가 될 수 있음을 의미한다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따른 차량용 전자 장치 및 차량용 전자 장치를 제어하는 모바일 장치를 나타내는 도면이다.
도 1을 참조하면, 차량용 전자 장치(100)는 차량 내에 장착, 배치 또는 포함되는 전자 장치를 의미하며, 차량용 인포테인먼트(IVI:In-Vehicle infotainment) 기술을 구현하기 위한 전자 장치가 될 수 있다. 인포테인먼트(infotainment)는 운전과 길 안내 등 필요한 정보를 의미하는 인포메이션(information)과 다양한 오락 거리와 인간 친화적인 기능을 말하는 엔터테인먼트(entertainment)를 합한 용어로, 정보와 오락을 모두 통칭하는 용어가 될 수 있다. 즉, 인포테인먼트 시스템은 차량의 사용자가 정보를 오락처럼 즐겁고 편리하게 사용할 수 있도록 하는 시스템을 의미할 수 있다.
특히, 차량용 인포테인먼트 시스템은 차량 내에서 듣는 라디오, 오디오, 비디오, 내비게이션, 음성 명령, 자동 안전 진단 등과 같이 차량에서 제공 가능한 다양한 정보들을 사용자(운전자 및/또는 동승자)가 쉽고 편리하게 인식할 수 있도록 표시하거나 사용할 수 있도록 하는 시스템을 의미한다. 이에 따라, 인포테인먼트 시스템은 사용자의 편리성을 증대시키는 방향으로 개발 및 발전되고 있다.
도 1을 참조하면, 차량용 전자 장치(100)는 인포테인먼트 시스템을 구현하는 전자 장치가 될 수 있으며, 차량에서 내비게이션, 오디오, 비디오, 라디오 등의 기능을 제공할 수 있다.
또한, 일 실시예에 따른 모바일 장치(200)는 차량용 전자 장치(100)와 통신을 수행하여, 차량용 전자 장치(100)를 제어할 수 있는 휴대 가능한 전자 장치를 지칭한다. 구체적으로, 모바일 장치(200)는 웨어러블 디바이스, 스마트폰, 태블릿 PC, PDA, 등의 모바일 컴퓨팅 장치가 될 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 차량용 전자 장치(100)와 모바일 장치(200)는 서로 통신 연결될 수 있다. 예를 들어, 차량용 전자 장치(100)와 모바일 장치(200)는 소정의 통신 규격에 맞춰서 페어링(pairing)될 수 있다. 차량용 전자 장치(100)와 모바일 장치(200)가 블루투스 통신 규격에 따른 통신 네트워크로 연결되는 경우, 차량용 전자 장치(100)와 모바일 장치(200)는 블루투스 통신 규격에 따른 페어링 동작을 수행하여, 블루투스 통신 연결에 필요한 데이터들을 주고 받음으로써, 서로 통신 연결을 수행할 수 있다.
또는, 차량용 전자 장치(100)와 모바일 장치(200)가 IoT(사물 인터넷: Internet On Things) 플랫폼을 통하여 연결되는 경우, 차량용 전자 장치(100)와 모바일 장치(200)는 IoT 플랫폼을 형성하기 위한 통신 네트워크의 규정에 따라서, 서로 통신 연결을 수행할 수 있다.
또는, 차량용 전자 장치(100)와 모바일 장치(200)가 BLE(Bluetooth Low Energy) 통신 네트워크를 통하여 연결되는 경우, 차량용 전자 장치(100)와 모바일 장치(200)는 BLE 통신 규격에 따른 페어링 동작을 수행하여, BLE 통신 연결에 필요한 데이터들을 주고 받음으로써, 서로 통신 연결을 수행할 수 있다.
또한, 상기 연결 동작은, 차량용 전자 장치(100)가 주체가 되어, 모바일 장치(200)로 통신 연결을 요청하여, 통신 연결을 수행하거나, 모바일 장치(200)가 주체가 되어, 차량용 전자 장치(100)로 통신 연결을 요청하여, 통신 연결을 수행할 수 있다. 또한, 차량용 전자 장치(100)와 모바일 장치(200) 사이에 통신 연결이 완료되면, 차량용 전자 장치(100)와 모바일 장치(200)는 서로 등록될 수 있다.
일 실시예에 따른 차량용 전자 장치(100)와 모바일 장치(200)가 서로 통신 연결이 완료되면, 차량용 전자 장치(100)는 획득한 콘텍스트 정보, 차량의 주행 상태 정보, 운전자의 상태 정보 등을 모바일 장치(200)로 전송할 수 있다. 모바일 장치(200)는 수신한 콘텍스트 정보, 차량의 주행 상태 정보, 운전자의 상태 정보 등에 기초하여, 제어 인터페이스를 생성하고, 생성된 제어 인터페이스를 디스플레이 화면에 출력함으로써, 사용자에게 제공할 수 있다. 이에 따라, 사용자는 모바일 장치(200)에 출력된 제어 인터페이스를 이용하여, 차량용 전자 장치(100)의 기능을 제어할 수 있다. 이에 대해서는, 이하 도면들을 참조하여 자세히 설명하기로 한다.
도 2는 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 2를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)와 모바일 장치(200)는 서로 통신 연결될 수 있다(S210). 이에 대해서는 도 1에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
일 실시예에 따른 차량용 전자 장치(100)는 콘텍스트 정보를 획득할 수 있다(S220).
이때, 콘텍스트 정보는 차량용 전자 장치(100)에서 실행 중인 기능에 대한 정보를 포함할 수 있다. 또한, 차량용 전자 장치(100)에서 복수의 기능들이 실행 중인 경우, 최상위 층(예를 들어, 포어그라운드(foreground))에서 실행 중인 기능에 대한 정보를 포함할 수 있다. 또한, 해당 기능에서 사용 가능한 제어 기능에 대한 정보를 포함할 수 있다.
예를 들어, 차량용 전자 장치(100)에서 오디오 플레이어 기능이 실행 중인 경우, 콘텍스트 정보는 현재 실행 중인 기능이‘오디오 플레이어’임을 나타내는 정보 및 오디오 플레이어에서 입력 가능한 제어 기능(예를 들어, 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등)에 대한 정보를 포함할 수 있다.
차량용 전자 장치(100)는 차량용 전자 장치의 콘텍스트 정보를 통신 네트워크를 통하여, 모바일 장치(200)로 전송할 수 있다(S230). 이때, 콘텍스트 정보는 근거리 통신 네트워크를 이용하여, 전송될 수 있다. 이때, 근거리 통신 네트워크는 블루투스, 와이파이, BLE(Bluetooth Low Energy) 등의 통신 규격에 따른 통신 네트워크가 될 수 있다.
일 실시예에 따른 모바일 장치(200)는 차량용 전자 장치(100)로부터 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성할 수 있다(S240). 예를 들어, 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성할 수 있다.
일 실시예에 따른 모바일 장치(200)는 240단계(S240)에서 생성된 제어 인터페이스를 출력할 수 있다(S250). 예를 들어, 모바일 장치(200)는 오디오 제어 인터페이스를 디스플레이에 출력할 수 있다. 오디오 제어 인터페이스는 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함할 수 있다. 오디오 제어 인터페이스 화면은, 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들 각각에 대응하는 오브젝트들을 포함할 수 있다.
이에 따라, 모바일 장치(200)는 디스플레이에 출력된 제어 인터페이스를 통해, 차량용 전자 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다(SS260). 예를 들어, 모바일 장치(200)는 오디오 제어 인터페이스 화면에 포함되는 다음 곡 재생 오브젝트를 누르는 터치 입력을 수신할 수 있다.
모바일 장치(200)는 수신한 사용자 입력에 대응하는 입력 정보를 차량용 전자 장치(100)로 전송할 수 있다(S270). 예를 들어, 모바일 장치(200)는 ‘다음 곡 재생’을 나타내는 입력 정보를 차량용 전자 장치(100)로 전송할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행할 수 있다(S280). 예를 들어, 차량용 전자 장치(100)는 ‘다음 곡 재생’을 나타내는 입력 정보에 기초하여, 다음 곡을 재생하도록 제어할 수 있으며, 차량용 전자 장치(100)에 출력되는 인터페이스 화면을 다음 곡 재생 화면으로 업데이트하여 출력할 수 있다.
도 3a 내지 도 3c는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성하는 방법을 설명하기 위해 참조되는 도면들이다.
도 3a를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 내비게이션 기능을 실행할 수 있다. 차량용 전자 장치(100)는 내비게이션 화면을 디스플레이에 출력할 수 있다. 내비게이션 화면은 맵과 함께, 차량의 현재 위치를 나타내는 제1 오브젝트를 포함할 수 있다. 또한, 내비게이션 화면은 제2 오브젝트(310)를 포함할 수 있으며, 제2 오브젝트(310)를 이용하여, 맵에서 표시되는 영역을 변경할 수 있다. 예를 들어, 제2 오브젝트(310)를 맵 상에서 이동시키면, 이동된 제2 오브젝트(310)의 위치를 중심으로 기 설정된 범위의 영역이 디스플레이에 표시될 수 있다. 또한, 줌 인/줌 아웃 기능을 이용하여, 디스플레이에 출력된 맵 화면을 줌 인/줌 아웃시킬 수 있다. 이외에도 내비게이션 화면은 목적지 설정 기능, 경유지 설정 기능, 경로 재 탐색 기능, 길안내 종료 기능 등의 다양한 기능들을 포함할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 실행 중인 기능이 내비게이션 기능이라는 정보 및 현재 내비게이션 화면에서 사용 가능한 제어 기능들에 대한 정보를 콘텍스트 정보로 전송할 수 있다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 내비게이션 제어 인터페이스를 생성하고, 내비게이션 제어 인터페이스(320)를 디스플레이에 출력할 수 있다. 이때, 내비게이션 제어 인터페이스(320)는, 내비게이션 화면에서 사용 가능한 제어 기능들을 포함할 수 있다.
예를 들어, 내비게이션 제어 인터페이스(320)는, 차량용 전자 장치(100)에 표시되는 제2 오브젝트(310)에 대응하는 제3 오브젝트(330)를 포함할 수 있으며, 화면 줌 인/줌 아웃 기능을 포함할 수 있다. 또한, 목적지 설정 기능, 경유지 설정 기능, 경로 재 탐색 기능, 길안내 종료 기능 등의 다양한 기능들을 포함할 수 있다.
이에 따라, 사용자는 모바일 장치(200)에서 제공되는 내비게이션 제어 인터페이스(320)를 이용하여, 내비게이션 제어 입력을 수행할 수 있다. 예를 들어, 제3 오브젝트(330)를 이동시킴으로써, 차량용 전자 장치(100)에 표시되는 맵 영역을 변경할 수 있다. 또한, 사용자는 내비게이션 제어 인터페이스(320)에 두 손가락을 터치하여, 핀치 인/핀치 아웃하는 입력으로 차량용 전자 장치(100)에 표시되는 맵 화면을 줌 인/줌 아웃할 수 있다.
또한, 사용자는 목적지를 설정하는 음성, 경유지를 설정하는 음성 등을 모바일 장치(200)로 입력할 수 있으며, 이에 따라, 차량용 전자 장치(100)는 목적지 설정이나 경유지를 설정할 수 있다. 다만, 이에 한정되지 않는다.
도 3b를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 상, 하 컨트롤 입력(341), 좌, 우 컨트롤 입력(342) 또는 회전 컨트롤 입력(343)을 필요로 하는 화면을 표시할 수 있다. 예를 들어, 차량용 전자 장치(100)에 표시되는 화면은, 선택 가능한 복수의 아이템들이 상하, 좌우 또는 원형으로 나열된 리스트를 포함할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 현재 표시 중인 화면이 상, 하 컨트롤 입력, 좌, 우 컨트롤 입력, 또는 회전 컨트롤 입력을 필요로 하는 화면이라는 정보를 콘텍스트 정보로 전송할 수 있다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 방향 제어 인터페이스로 생성하고, 방향 제어 인터페이스를 디스플레이에 출력할 수 있다. 이때, 방향 제어 인터페이스는 휠 키(350)를 포함할 수 있다. 이에 따라, 사용자는 모바일 장치(200)에서 제공되는 휠 키(350)를 시계 방향으로 회전하는 입력을 수행하면, 차량용 전자 장치(100)에 표시되는 리스트에서 아이템을 선택하기 위한 커서 또는 포커스를 아래, 오른쪽, 또는 시계 방향으로 이동시킬 수 있다. 또는, 사용자가 모바일 장치(200)에 제공되는 휠 키(350)를 반시계 방향으로 회전하는 입력을 수행하면, 차량용 전자 장치(100)에 표시되는 리스트에서 아이템을 선택하기 위한 커서 또는 포커스를 위, 왼쪽 또는 반시계 방향으로 이동시킬 수 있다. 다만, 이에 한정되지 않는다.
또한, 도 3b에서는 방향 제어 인터페이스가 휠 키(350)를 포함하는 것으로 도시하고 설명하였지만, 이에 한정되지 않고, 방향 제어 인터페이스는 2방향 키(버튼), 4방향 키(버튼), 상, 하 스크롤 키, 좌, 우 스크롤 키 등 다양한 방식의 입력 수단을 포함할 수 있다.
도 3c를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 오디오 플레이어 기능을 실행할 수 있다. 차량용 전자 장치(100)는 오디오 플레이어 화면(360)을 디스플레이에 출력할 수 있다. 오디오 플레이어 화면(360)은 현재 재생 중인 음악에 대한 정보(예를 들어, 타이틀, 아티스트, 장르 등)와 함께, 오디오 플레이어 화면에서 사용 가능한 제어 기능들(예를 들어, 이전 곡 재생, 다음 곡 재생, 재생/일시정지, 볼륨 조절 등)을 나타내는 오브젝트들을 포함할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 실행 중인 기능이 오디오 플레이어 기능이라는 정보 및 현재 오디오 플레이어 화면에서 사용 가능한 제어 기능들에 대한 정보를 콘텍스트 정보로 전송할 수 있다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스(370)를 생성하고, 오디오 제어 인터페이스(370)를 디스플레이에 출력할 수 있다. 이때, 오디오 제어 인터페이스(370)는, 오디오 플레이어 화면에서 사용 가능한 제어 기능들을 포함할 수 있다.
예를 들어, 오디오 제어 인터페이스(370)는, 이전 곡 재생, 다음 곡 재생, 재생/일시정지, 볼륨 조절 등을 나타내는 오브젝트들을 포함할 수 있다.
이에 따라, 모바일 장치(200)에서 제공되는 오디오 제어 인터페이스(370)를 통하여, 오디오 플레이어 제어 입력을 수신할 수 있다. 예를 들어, 모바일 장치(200)는 오디오 제어 인터페이스(380)에 포함되는 다음 곡 재생 오브젝트를 선택하는 터치 입력을 수신할 수 있다. 모바일 장치(200)는 다음 곡 재생에 대응하는 입력 정보를 차량용 전자 장치(100)로 전송하고, 차량용 전자 장치(100)는 수신한 입력 정보에 기초하여, 다음 곡을 재생하도록 동작할 수 있다.
도 4는 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 4를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)와 모바일 장치(200)는 서로 통신 연결될 수 있다(S410). 이에 대해서는 도 1에서 자세히 설명하였으므로, 구체적인 설명은 생략하기로 한다.
일 실시예에 따른 차량용 전자 장치(100)는 콘텍스트 정보를 획득하고(S420), 주행 상태 정보를 획득할 수 있다(S430). 콘텍스트 정보를 획득하는 단계(S420)는 도 2의 220단계(S220)에서 설명하였으므로 구체적인 설명은 생략하기로 한다.
또한, 차량의 주행 상태 정보는, 차량용 전자 장치(100)가 탑재 또는 배치된 차량의 주행 여부(주행 중인지, 정차 중인지 여부), 주행 중인 경우, 주행 속도 정보(예를 들어, 주행 속도가 가 저속인지, 중속인지, 고속인지에 대한 정보)를 포함할 수 있다.
차량용 전자 장치(100)는 차량의 차량 센서 모듈로부터 수신한 차량의 주행과 관련된 정보(예를 들어, 주행 속도 센싱 정보, 차량의 조향 각도 정보, 페달 센싱 정보, 기어 레버(Gear lever) 센싱 정보, 방향 지시등의 활성화 여부, 활성화된 방향 지시등의 방향 등에 관한 정보)에 기초하여, 차량의 주행 상태 정보를 획득할 수 있다.
차량용 전자 장치(100)는 차량용 전자 장치의 콘텍스트 정보 및 차량의 주행 상태 정보를 통신 네트워크를 통하여, 모바일 장치(200)로 전송할 수 있다(S440).
일 실시예에 따른 모바일 장치(200)는 차량용 전자 장치(100)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성할 수 있다(S450).
예를 들어, 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스로 결정할 수 있다. 또한, 모바일 장치(200)는 수신한 주행 상태 정보에 기초하여, 복수의 오디오 제어 인터페이스들 중 어느 하나를 생성할 수 있다. 예를 들어, 차량의 주행 상태 정보가 정차 중인 경우, 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스를 생성할 수 있다. 또한, 차량의 주행 상태 정보가 고속으로 주행 중인 경우, 제1 오디오 제어 인터페이스에 포함되는 오디오 제어 기능들 중 일부만 포함하는 제2 오디오 제어 인터페이스를 생성할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 모바일 장치(200)는 결정된 제어 인터페이스에 대응하는 인터페이스를 디스플레이에 출력할 수 있다(S460). 예를 들어, 모바일 장치(200)는 제1 오디오 제어 인터페이스 및 제2 오디오 제어 인터페이스 중에 생성된 오디오 제어 인터페이스 화면을 디스플레이에 출력할 수 있다.
이에 따라, 모바일 장치(200)의 디스플레이에 출력된 오디오 제어 인터페이스를 통해, 차량용 전자 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있다(S470).
모바일 장치(200)는 수신한 사용자 입력에 대응하는 입력 정보를 차량용 전자 장치(100)로 전송할 수 있다(S480).
차량용 전자 장치(100)는 모바일 장치(200)로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행할 수 있다(S490).
도 5는 일 실시예에 따른 차량용 전자 장치의 구성을 나타내는 블록도이다.
도 5를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 통신부(110), 프로세서(120), 메모리(130), 및 디스플레이(140)를 포함할 수 있다.
통신부(110)는 적어도 하나의 유선 또는 무선 통신 네트워크를 통해서 외부 장치 또는 서버와 통신을 수행할 수 있다. 일 실시예에 따른 통신부(110)는 블루투스, 와이파이, BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 근거리 통신 모듈(미도시) 및 원거리 통신 규격에 따라서 원거리 통신을 지원하기 위한 서버(미도시)와 통신을 수행하는 원거리 통신 모듈(미도시)을 포함할 수 있다. 원거리 통신 모듈(미도시)은 3G, 4G, 및/또는 5G 통신 규격에 따르는 통신 네트워크, 또는 인터넷 통신을 위한 네트워크를 통하여 통신을 수행할 수 있다. 일 실시예에 따른 통신부(110)는 근거리 통신 방식으로 모바일 장치(200)와 통신을 수행할 수 있다. 다만, 이에 한정되지 않는다.
또한, 통신부(110)는 차량에 탑재된 차량 센서 모듈(500)과 데이터 통신을 수행할 수 있다. 예를 들어, 통신부(110)는 차량 센서 모듈(500)과 CAN(Controller Area Network)에 따른 통신을 수행할 수 있다.
차량 센서 모듈(500)은 차량에 탑재되고, 차량의 속도, 조향 각도, 페달, 기어 레버, 차량의 방향 지시등의 조작 등을 감지하여, 차량의 주행과 관련된 정보를 획득하고, 주행과 관련된 정보를 차량용 전자 장치(100)로 전송할 수 있다. 이에 따라, 통신부(110)는 차량 센서 모듈(500)과 CAN 통신을 수행함으로써, 차량 센서 모듈(500)로부터 주행 속도 센싱 정보, 차량의 조향 각도 정보, 페달 센싱 정보, 기어 레버(Gear lever) 센싱 정보, 방향 지시등의 활성화 여부, 활성화된 방향 지시등의 방향 등에 관한 정보 중 적어도 하나를 수신할 수 있다.
프로세서(120)는 차량용 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(120)는 메모리(130)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 일 실시예에 따른 메모리(130)는 차량용 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다.
프로세서(120)는 산술, 로직 및 입출력 연산과 시그널 프로세싱을 수행하는 하드웨어 구성 요소로 구성될 수 있다. 프로세서(120)는 예를 들어, 중앙 처리 장치(Central Processing Unit), 마이크로 프로세서(microprocessor), 그래픽 프로세서(Graphic Processing Unit), ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), 및 FPGAs(Field Programmable Gate Arrays) 중 적어도 하나로 구성될 수 있으나, 이에 제한되는 것은 아니다.
메모리(130)는 예를 들어, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 롬(ROM, Read-Only Memory), 및 EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나를 포함하는 비휘발성 메모리 및 램(RAM, Random Access Memory) 또는 SRAM(Static Random Access Memory)과 같은 휘발성 메모리를 포함할 수 있다.
메모리(130)에는 프로세서(120)가 판독할 수 있는 명령어들, 데이터 구조, 및 프로그램 코드(program code)가 저장될 수 있다. 이하의 실시예에서, 프로세서(120)는 메모리에 저장된 프로그램의 명령어들 또는 코드들을 실행함으로써 구현될 수 있다.
프로세서(120)는 차량용 전자 장치(100)의 콘텍스트 정보를 모니터링할 수 있으며, 콘텍스트 정보를 모바일 장치(200)로 전송하도록 통신부를 제어할 수 있다. 이때, 콘텍스트 정보는 차량용 전자 장치에서 실행 중인 기능에 대한 정보를 포함할 수 있으며, 복수의 기능들이 실행 중인 경우, 최상위 층(예를 들어, 포어그라운드(foreground))에서 실행 중인 기능에 대한 정보를 포함할 수 있다. 또한, 해당 기능에서 사용 가능한 제어 기능에 대한 정보를 포함할 수 있다.
또한, 프로세서(120)는 차량의 주행 상태 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는 차량 센서 모듈(500)로부터 수신한 주행 속도 센싱 정보, 차량의 조향 각도 정보, 페달 센싱 정보, 기어 레버(Gear lever) 센싱 정보, 방향 지시등의 활성화 여부, 활성화된 방향 지시등의 방향 등에 관한 정보 중 적어도 하나에 기초하여, 차량이 주행 중인지, 정차 중인지 여부, 주행 중인 경우, 주행 속도에 대한 정보, 위험 또는 비상 상황은 아닌지 여부에 대한 정보를 획득할 수 있다. 프로세서(120)는 획득한 차량의 주행 상태 정보를 모바일 장치(200)로 전송하도록 통신부(110)를 제어할 수 있다.
또한, 프로세서(120)는 차량용 전자 장치(100)의 현재 시간에 대한 정보를 획득하여, 콘텍스트 정보 또는 주행 상태 정보에 매핑시켜, 모바일 장치(200)로 전송하도록 통신부(110)를 제어할 수 있다.
또한, 프로세서(120)는 모바일 장치(200)로부터 입력 정보를 수신하면, 입력 정보를 해석하여, 입력 정보에 대응하는 제어 동작을 수행할 수 있다.
일 실시예에 따른 디스플레이(140)는 이미지를 화면 상으로 출력한다. 구체적으로, 디스플레이(1220)는 비디오 데이터를 사용자가 시각적으로 인식할 수 있도록, 내부적으로 포함되는 디스플레이 패널(미도시)을 통하여, 비디오 데이터에 대응되는 이미지를 출력할 수 있다. 여기서, 디스플레이(140)가 출력하는 화면은 사용자 인터페이스 화면이 될 수 있다.
구체적으로, 디스플레이(140)는 디스플레이 패널(display panel)(미도시)과 결합되는 터치 패드(touch pad)(미도시)를 더 포함할 수 있다. 디스플레이(140)가 터치 패드와 결합되는 디스플레이 패널로 형성되는 경우, 디스플레이(140)는 터치 입력을 수신하기 위한 사용자 인터페이스 화면을 출력할 수 있다. 그리고, 사용자 인터페이스 화면을 통하여 소정 명령에 대응되는 사용자의 조작(예를 들어, 터치)이 감지되면, 디스플레이(140)는 감지된 터치 입력을 프로세서(120)로 전송할 수 있다. 그러면, 프로세서(120)는 감지된 터치 입력을 해석하여 사용자가 입력한 소정 명령을 인식 및 실행할 수 있다.
일 실시예에 따른 디스플레이(140)는 차량용 전자 장치에서 실행 중인 기능에 대응하는 인터페이스 화면을 출력할 수 있다. 또한, 모바일 장치(200)로부터 입력 정보를 수신하는 경우, 디스플레이에(140)에 출력된 인터페이스 화면을 통하여 사용자 입력(예를 들어, 터치)을 수신한 경우와 동일하게, 제어 동작을 수행할 수 있다.
또한, 프로세서(120)는 모바일 장치(200)로부터 수신한 입력 정보에 기초하여 제어 동작이 수행되면, 인터페이스 화면을 업데이트하여 표시하도록 디스플레이(140)를 제어할 수 있다.
도 6은 일 실시예에 따른 모바일 장치의 구성을 나타내는 블록도이다.
도 6을 참조하면, 일 실시예에 따른 모바일 장치(200)는 통신부(210), 프로세서(220), 메모리(230), 디스플레이(240) 및 사용자 입력부(250)를 포함할 수 있다.
통신부(210)는 모바일 장치(200)의 성능 및 구조에 대응하여, 근거리 통신부, 이동 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
근거리 통신부는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부, 마이크로 웨이브(uWave) 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
일 실시예에 따른 통신부(210)는 차량용 전자 장치(100)와 통신을 수행하여, 차량용 전자 장치(100)로부터 콘텍스트 정보 및 차량의 주행 상태 정보를 수신할 수 있다. 또한, 통신부(210)는 콘텍스트 정보 및 차량의 주행 상태 정보에 매핑되는 시간 정보를 함께 수신할 수 있다.
일 실시예에 따른 프로세서(220)는 모바일 장치(200)의 동작을 전반적으로 제어할 수 있다. 또한, 프로세서(220)는 소정의 동작이 수행되도록 모바일 장치(200)에 포함되는 다른 구성들을 제어할 수 있다. 일 실시예에 따른 프로세서(220)는 메모리(230)에 저장되는 하나 이상의 프로그램들을 실행할 수 있다. 프로세서(220)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 또한, 프로세서(220)는 복수의 프로세서를 포함할 수 있다.
일 실시예에 따른 메모리(230)는 모바일 장치(200)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다.
또한, 메모리(230)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(230)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(220)에 의해 실행될 수 있다.
일 실시예에 따른 프로세서(220)는 차량용 전자 장치(100)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성할 수 있다. 프로세서(220)는 콘텍스트 정보에 기초하여, 차량용 전자 장치(100)에서 실행 중인 기능에 대한 정보를 획득하고, 해당 기능에서 사용 가능한 제어 기능들에 대한 정보를 획득할 수 있다. 예를 들어, 콘텍스트 정보에 기초하여, 차량용 전자 장치에서 실행 중인 기능이 오디오 플레이어임을 인식하면, 프로세서(200)는 제어 인터페이스를 오디오 플레이어를 제어하기 위한 오디오 제어 인터페이스로 생성할 수 있다. 또한, 프로세서(220)는 주행 상태 정보에 기초하여, 복수의 오디오 제어 인터페이스들 중 하나를 선택할 수 있다. 예를 들어, 프로세서(220)는 차량이 정차 중임을 인식하면, 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스를 선택하고, 차량이 고속으로 주행 중임을 인식하면, 제1 오디오 제어 인터페이스에 포함되는 오디오 제어 기능들 중 일부만 포함하는 제2 오디오 제어 인터페이스를 선택할 수 있다. 다만, 이에 한정되지 않는다.
메모리(230)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
디스플레이(240)는, 프로세서(120)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. 디스플레이(240)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 또한, 디스플레이(240)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다. 일 실시예에 따른 디스플레이(240)는 생성된 제어 인터페이스를 출력할 수 있다.
사용자 입력부(250)는 사용자가 모바일 장치(200)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(250)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
또한, 사용자 입력부(250)는 음성 인식을 위한 음성 인식 장치(미도시)를 포함할 수 있다. 예를 들어, 음성 인식 장치는 마이크가 될 수 있으며, 음성 인식 장치는 사용자의 음성 명령 또는 음성 요청을 수신할 수 있다. 또한, 사용자 입력부(250)는 모션 감지 센서(미도시)를 포함할 수도 있다. 예를 들어, 모션 감지 센서(미도시)는 사용자의 움직임을 감지하고, 감지된 움직임을 사용자 입력으로 수신할 수 있다. 또한, 전술한 음성 인식 장치(미도시) 및 모션 감지 센서(미도시)는 사용자 입력부(250) 내에 포함되는 형태가 아니라, 사용자 입력부(250)와는 독립적인 모듈로 모바일 장치(200) 내에 포함될 수 도 있다.
도 7a 내지 도 7c는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 7a를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 오디오 플레이어 기능을 실행할 수 있다. 차량용 전자 장치(100)는 오디오 플레이어 화면을 디스플레이에 출력할 수 있다. 오디오 플레이어 화면은 현재 재생 중인 음악에 대한 정보(예를 들어, 타이틀, 아티스트, 장르 등)와 함께, 오디오 플레이어 화면에서 사용 가능한 제어 기능들(예를 들어, 이전 곡 재생, 다음 곡 재생, 재생/일시정지, 볼륨 조절 등)을 나타내는 오브젝트들을 포함할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 실행 중인 기능이 오디오 플레이어 기능이라는 정보 및 현재 오디오 플레이어 화면에서 사용 가능한 제어 기능들에 대한 정보를 콘텍스트 정보로 전송할 수 있다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성하고, 오디오 제어 인터페이스를 디스플레이에 출력할 수 있다. 이때, 모바일 장치(200)는 차량의 주행 상태 정보에 기초하여, 복수의 오디오 제어 인터페이스들 중 하나를 선택하여 출력할 수 있다. 예를 들어, 차량의 주행 상태 정보가 정차 중인 경우, 모바일 장치(200)는 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스(710)를 디스플레이에 출력할 수 있다. 반면에, 차량의 주행 상태 정보가 고속으로 주행 중인 경우, 제1 오디오 제어 인터페이스(710)에 포함되는 오디오 제어 기능들 중 일부(예를 들어, 재생/일시정지, 이전 곡 재생, 다음 곡 재생)만 포함하는 제2 오디오 제어 인터페이스(720)를 디스플레이에 출력할 수 있다.
도 7b를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 오디오 플레이어 기능을 실행할 수 있으며, 오디오 플레이어 화면을 디스플레이에 출력할 수 있다. 차량용 전자 장치(100)가 오디오 플레이어 기능을 실행하는 경우, 모바일 장치(200)로 전송되는 콘텍스트 정보에 대해서는, 도 7a에서 설명하였으므로 동일한 설명은 생략하기로 한다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성하고, 오디오 제어 인터페이스를 디스플레이에 출력할 수 있다. 이때, 모바일 장치(200)는 차량의 주행 상태 정보에 기초하여, 복수의 오디오 인터페이스들 중 하나를 생성할 수 있다. 예를 들어, 차량의 주행 상태 정보가 고속으로 주행 중인 경우, 모바일 장치(200)는 오디오 제어 인터페이스를 모션 입력을 수신할 수 있는 모션 입력 인터페이스로 제공할 수 있다. 모션 입력 인터페이스는 손을 좌 우로 이동시키는 모션 입력 또는 손을 상 하로 이동시키는 모션 입력을 수신할 수 있다. 예를 들어, 손을 좌 우로 이동시키는 모션은, 이전 곡 재생, 다음 곡 재생에 대응하는 모션일 수 있으며, 손을 상 하로 이동시키는 모션은, 볼륨을 높이거나 낮추는 동작에 대응하는 모션일 수 있다. 다만, 이에 한정되지 않는다. 또한, 모바일 장치(200)는 모션 입력 인터페이스를 제공하는 경우, 모션에 대한 가이드 화면(730)을 출력하여, 사용자에게 특정 기능에 대응하는 모션을 가이드 할 수 있다. 또는, 모바일 장치(200)는 차량의 주행 상태 정보가 고속으로 주행 중인 경우, 오디오 제어 인터페이스를, 음성 입력을 수신할 수 있는 음성 입력 인터페이스로 제공할 수도 있다.
반면에, 차량의 주행 상태가 정차 중인 경우, 모바일 장치(200)는 오디오 제어 기능들이 터치 키(버튼)로 구현된 터치 입력 인터페이스(740)를 디스플레이에 출력할 수 있다.
도 7c를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 내비게이션 기능을 실행할 수 있으며, 내비게이션 화면을 디스플레이에 출력할 수 있다. 또한, 차량용 전자 장치(100)는 내비게이션 기능 중 목적지를 설정하는 기능을 실행 중일 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 실행 중인 기능이 내비게이션 기능들 중 목적지 설정이라는 정보를 콘텍스트 정보로 전송할 수 있다.
일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 목적지를 입력할 수 있는 제어 인터페이스를 생성할 수 있다. 이때, 모바일 장치(200)는 차량의 주행 상태 정보에 기초하여, 목적지를 입력할 수 있는 제어 인터페이스의 입력 방식을 결정할 수 있다. 예를 들어, 차량의 주행 상태 정보가 고속으로 주행 중인 경우, 모바일 장치(200)는 제어 인터페이스를, 음성 입력을 수신할 수 있는 음성 입력 인터페이스로 제공할 수 있다. 또한, 모바일 장치(200)는 음성 입력 인터페이스를 제공하는 경우, ‘목적지를 말해주세요’라는 가이드 메시지(750)를 화면에 출력하여, 사용자가 목적지를 음성으로 입력하도록 가이드할 수 있다. 이에 따라, 모바일 장치(200)는 음성 입력을 수신하고, 수신한 음성 입력에 대응하는 입력 정보(예를 들어, 음성 인식된 목적지 정보)를 차량용 전자 장치(100)로 전송할 수 있다.
반면에, 차량의 주행 상태가 정차 중인 경우, 모바일 장치(200)는 터치 기반의 키 패드 입력 인터페이스(760)를 제공할 수 있다. 이에 따라, 모바일 장치(200)는 키 패드를 터치하는 터치 입력을 수신하고, 수신한 터치 입력에 대응하는 입력 정보(예를 들어, 목적지 정보)를 차량용 전자 장치(100)로 전송할 수 있다.
도 8은 일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법을 나타내는 흐름도이다.
도 8을 참조하면, 일 실시예에 따른 차량용 전자 장치(100)와 모바일 장치(200)는 서로 통신 연결될 수 있다(S810). 이에 대해서는 도 1에서 자세히 설명하였으므로, 구체적인 설명은 생략하기로 한다.
일 실시예에 따른 차량용 전자 장치(100)는 콘텍스트 정보를 획득하고(S820), 운전자 상태 정보를 획득할 수 있다(S830). 콘텍스트 정보를 획득하는 단계(S820)는 도 2의 220단계(S220)에서 설명하였으므로 구체적인 설명은 생략하기로 한다.
또한, 운전자의 상태 정보는, 차량용 전자 장치(100)가 탑재 또는 배치된 차량을 운전하는 운전자의 상태가 정상인지 비정상인지 여부, 운전자의 건강 상태(예를 들어, 심장 박동이 상승, 심전도 이상 등)에 대한 정보를 포함할 수 있다.
차량용 전자 장치(100) 차량 내부에 배치된 내부 카메라로부터, 운전자 영상 및 운전자의 시선 정보를 획득할 수 있다. 예를 들어, 내부 카메라는 운전자를 촬영하고, 운전자 영상을 실시간으로 획득할 수 있다. 또한, 내부 카메라는 운전자의 눈동자를 촬영하고, 눈동자의 움직임을 감지하는 시선 추적 센서를 포함할 수 있다. 이에 따라, 내부 카메라는 운전자 영상 또는 운전자의 시선 정보를, 차량용 전자 장치(100)로 전송할 수 있다. 차량용 전자 장치(100)는 운전자의 시선 정보에 기초하여, 운전자의 시선이 분산되는 지, 운전자 영상에 기초하여, 운전자가 졸고 있는 지 등의 운전자 상태를 판단할 수 있다.
또한, 차량용 전자 장치(100)는 운전자가 착용한 웨어러블 디바이스로부터 운전자의 건강과 관련된 정보를 획득할 수 있다. 예를 들어, 운전자가 착용한 웨어러블 디바이스는 운전자의 심박수, 심전도 등을 측정할 수 있다. 이에 따라, 웨어러블 디바이스는 운전자의 심박수, 심전도 등의 정보를 차량용 전자 장치(100)로 전송할 수 있으며, 차량용 전자 장치(100)는 수신한 정보에 기초하여, 운전자의 건강 상태에 이상이 있는 지 여부를 판단할 수 있다.
차량용 전자 장치(100)는 차량용 전자 장치의 콘텍스트 정보 및 운전자의 상태 정보를 통신 네트워크를 통하여, 모바일 장치(200)로 전송할 수 있다(S840).
일 실시예에 따른 모바일 장치(200)는 차량용 전자 장치(100)로부터 수신한 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성할 수 있다(S850).
예를 들어, 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성할 수 있다. 또한, 모바일 장치(200)는 수신한 운전자 상태 정보에 기초하여, 복수의 오디오 제어 인터페이스들 중 어느 하나를 선택할 수 있다. 예를 들어, 운전자 상태 정보가 정상 상태를 나타내는 경우, 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스를 선택할 수 있다. 또한, 운전자 상태 정보가 주의나 위험 상태를 나타내는 경우, 제1 오디오 제어 인터페이스에 포함되는 오디오 제어 기능들 중 일부만 포함하는 제2 오디오 제어 인터페이스를 선택할 수 있다. 다만, 이에 한정되지 않는다.
일 실시예에 따른 모바일 장치(200)는 생성된 제어 인터페이스를 디스플레이에 출력할 수 있다(S860).
또한, 모바일 장치(200)는 운전자 상태 정보가 주의나 위험 상태를 나타내는 경우, 제2 오디오 제어 인터페이스와 함께, 경고음 또는 진동을 출력하거나, 경고 메시지를 출력할 수 있다. 이에 따라, 사용자에게 주의나 위험 상황을 알릴 수 있다.
모바일 장치(200)는 디스플레이에 출력된 제어 인터페이스를 통해, 차량용 전자 장치(100)를 제어하기 위한 사용자 입력을 수신할 수 있으며(S870), 수신한 사용자 입력에 대응하는 입력 정보를 차량용 전자 장치(100)로 전송할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행할 수 있다(S890).
도 9a 및 도 9b는 일 실시예에 따른 모바일 장치가 차량용 전자 장치의 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 9a를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 오디오 플레이어 기능을 실행할 수 있다. 차량용 전자 장치(100)는 오디오 플레이어 화면을 디스플레이에 출력할 수 있다. 오디오 플레이어 화면은 현재 재생 중인 음악에 대한 정보(예를 들어, 타이틀, 아티스트, 장르 등)와 함께, 오디오 플레이어 화면에서 사용 가능한 제어 기능들(예를 들어, 이전 곡 재생, 다음 곡 재생, 재생/일시정지, 볼륨 조절 등)을 나타내는 오브젝트들을 포함할 수 있다.
차량용 전자 장치(100)는 모바일 장치(200)로 실행 중인 기능이 오디오 플레이어 기능이라는 정보 및 오디오 플레이어 화면에서 사용 가능한 제어 기능들에 대한 정보를 콘텍스트 정보로 전송할 수 있다. 일 실시예에 따른 모바일 장치(200)는 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성하고, 오디오 제어 인터페이스를 디스플레이에 출력할 수 있다. 이때, 모바일 장치(200)는 운전자 상태 정보에 기초하여, 복수의 오디오 제어 인터페이스들 중 하나를 생성할 수 있다. 예를 들어, 운전자 상태 정보가 정상 상태를 나타내는 경우, 모바일 장치(200)는 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스(910)를 디스플레이에 출력할 수 있다.
반면에, 운전자 상태 정보가 주의 상태를 나타내는 경우, 제1 오디오 제어 인터페이스에 포함되는 오디오 제어 기능들 중 일부(예를 들어, 재생/일시정지, 이전 곡 재생, 다음 곡 재생)만 포함하는 제2 오디오 제어 인터페이스(920)를 디스플레이에 출력할 수 있다. 또한, 모바일 장치(200)는 주의 상태에 대응하는 경고음, 진동, 경고 메시지(925) 등을 출력할 수 있다.
또한, 운전자 상태 정보가 위험 상태를 나타내는 경우, 제2 오디오 제어 인터페이스(920)에 포함되는 기능들을 나타내는 아이콘들을 확대한 제3 오디오 제어 인터페이스(930)를 디스플레이에 출력할 수 있다. 또한, 모바일 장치(200)는 위험 상태에 대응하는 경고음, 진동, 경고 메시지(935) 등을 함께 출력할 수 있다.
도 9b를 참조하면, 일 실시예에 따른 차량용 전자 장치(100)는 오디오 플레이어 기능을 실행할 수 있으며, 오디오 플레이어 화면을 디스플레이에 출력할 수 있다. 또한, 일 실시예에 따른 차량용 전자 장치(100)는 복수의 모바일 장치들(200, 900)과 통신 연결될 수 있다. 예를 들어, 제1 모바일 장치(200)는 차량을 운전하는 운전자의 모바일 장치일 수 있으며, 제2 모바일 장치(900)는 차량에 탑승한 동승자의 모바일 장치일 수 있다.
일 실시예에 따른 모바일 장치들(200, 900)은 수신한 콘텍스트 정보에 기초하여, 오디오 제어 인터페이스를 생성하고, 오디오 제어 인터페이스를 디스플레이에 출력할 수 있다. 이때, 차량이 주행 중인 경우, 차량을 운전하는 운전자의 모바일 장치(제1 모바일 장치, 200)는 오디오 제어 기능들 중 일부(예를 들어, 재생/일시정지, 이전 곡 재생, 다음 곡 재생)만 포함하는 제2 오디오 제어 인터페이스(920)를 디스플레이에 출력할 수 있다.
반면에, 동승자의 모바일 장치(제2 모바일 장치, 900)는 재생/일시정지, 이전 곡 재생, 다음 곡 재생, 온/오프, 볼륨 조절 등의 제어 기능들을 포함하는 제1 오디오 제어 인터페이스(910)를 디스플레이에 출력할 수 있다.
또한, 일 실시예에 따른 제2 모바일 장치(900)는 차량용 전자 장치(100)로부터 운전자의 상태 정보를 수신할 수 있으며, 운전자 상태 정보가 주의 상태 또는 위험 상태를 나타내는 경우, 경고음, 진동, 경고 메시지(940) 등을 출력할 수 있다. 이에 따라, 동승자는 운전자의 상태가 비정상 상태임을 쉽고 빠르게 인식할 수 있어, 사고를 방지할 수 있다.
도 10은 다른 실시예에 따른 차량용 전자 장치의 구성을 나타내는 블록도이다.
도 10의 차량용 전자 장치(1000)는 도 1의 차량용 전자 장치(100)의 일 실시예일 수 있다.
도 10을 참조하면, 차량용 전자 장치(1000)는 입출력부(1002), 프로세서(1010) 및 통신부(1003)를 포함할 수 있다. 여기서, 프로세서(1010) 및 입출력부(1002)를 합쳐서, IVI 헤드 유닛(IVI head Unit, 1001)이라 호칭할 수 있다. 또한, 차량용 전자 장치(1000)는 차량 내에서 운전석과 보조석의 중앙 전면부 사이에 배치될 수 있다.
또한, 통신부(1003)는 TCU(Transmission Control Unit)로 호칭될 수 있다.
여기서, TCU 는 차량 내에서 데이터의 송수신을 제어하는 구성으로, 차량과 외부 전자 기기(예를 들어, 서버, 모바일 기기 등)과의 통신을 담당할 수 있다.
프로세서(1010)는 하드웨어 플랫폼을 구현하기 위한 구성들(1011)(예를 들어, 어플리케이션 프로세서(AP: Application processor), 메모리 등) 및 소프트웨어 플랫폼을 구현하기 위한 구성들(1012)(운영체제(OS: Operating system) 프로그램, 자동차의 안전 소프트웨어(Automotive safety Software), 어플리케이션(Application) 등)로 형성될 수 있다.
구체적으로, 하드웨어 플랫폼을 구현하는 구성들(1011)은 적어도 하나의 어플리케이션 프로세서(AP)(1050) 및 메모리(1060)를 포함할 수 있다. 여기서, 메모리(1060)는 도 5에서 설명한 바와 동일하며, 도 10에서는 메모리(1060)가 프로세서(1010) 내에 포함되는 경우로 도시한다. 또한, 메모리(1060)가 프로세서(1010) 내에 포함되지 않고 차량용 전자 장치(1000)에 포함되는 별도의 구성으로 포함될 수도 있다.
또한, 하드웨어 플랫폼을 구현하는 구성들(1011)로, USB 모듈(미도시), FM/DMB 튜너(미도시) 등이 더 포함될 수도 있다. 여기서, USB 모듈(미도시)은 USB 삽입부(미도시)를 포함하여 삽입된 USB 내의 데이터를 독출할 수 있다. 또한, FM/DMB 튜너(미도시)는 FM/DMB 방송 신호를 선택적으로 수신할 수 있다. 구체적으로, FM/DMB 튜너(미도시)는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 차량용 전자 장치(1000)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. FM/DMB 튜너(미도시)가 수신하는 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함할 수 있다.
소프트웨어 플랫폼을 구현하기 위한 구성들(1012)은 운영체제(OS: Operating system) 프로그램, 자동차의 안전 소프트웨어(Automotive safety Software), 어플리케이션(Application) 등) 등을 포함할 수 있다. 여기서, 운영체제 프로그램은, QNX, Linux, 또는 Android 기반의 운영체제 프로그램을 포함할 수 있다.
입출력부(1002)는 사용자에게 데이터를 제공하거나 사용자의 요청을 수신하기 위한 구성으로, 디스플레이(1020), 카메라 모듈(1030), 및 사용자 인터페이스(1040) 중 적어도 하나를 포함할 수 있다. 디스플레이(1020)는 도 5의 디스플레이(140)에 대응되는 구성으로 구체적인 설명은 생략하기로 한다.
카메라 모듈(1030)은 영상 및 음성 데이터를 획득하기 위한 구성으로, 카메라(1031) 및 마이크(1032)를 포함할 수 있다. 또한, 카메라 모듈(1030)은 카메라(1031)의 동작음 등을 출력하기 위해서 스피커(1033)를 포함할 수 있다. 또한, 스피커(1033)는 카메라 모듈(1030)과 독립된 별도의 구성으로, 오디오 출력 동작을 수행할 수 있다. 또한, 카메라 모듈(1030)은 사용자의 제스쳐 및 음성을 인식하기 위한 감지 센서로 동작할 수 있다.
카메라(1031)는 차량용 전자 장치(1000)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라(1031)는 통신부(1003) 또는 입출력부(1002)를 통해 차량용 전자 장치(1000)의 프로세서(1010)와 전기적으로 연결될 수 있다. 예를 들어, 카메라(1031)가 차량용 전자 장치(1000)와 분리형으로 구현되는 경우, 카메라(1031)는 운전자의 얼굴 및 상체에 대응되는 영상을 촬영할 수 있도록, 운전자의 얼굴 및 상체의 전면에 대응되는 위치에 배치될 수 있을 것이다. 예를 들어, 분리형으로 구현된 카메라(1031)는 운전자의 영상 또는 운전자의 시선 정보를 획득하여, 차량용 전자 장치(1000)로 전송할 수 있다.
마이크(1032)는 음성 신호를 수신할 수 있다. 마이크(1032)는 사용자의 음성 신호를 수신하고, 프로세서(1010)는 마이크(1032)에서 수신된 음성에 대응되는 제어 명령을 인식하여, 그에 대응되는 동작이 실행되도록 제어할 수 있다.
사용자 인터페이스(1040)는 차량용 전자 장치(1000)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(1040)는 사용자의 입력을 수신하기 위한 푸시 버튼, 휠(wheel), 키보드, 조그다이얼, 터치 패널 및 햅틱(haptic) 센서 등을 포함할 수 있다.
통신부(1003)는 블루투스 모듈(1071), 와이파이 모듈(1072), GPS 모듈(1073), RF 모듈(1074), 및 CP 모듈(Communication Processor module)(1075) 중 적어도 하나를 포함할 수 있다. 여기서, CP 모듈(1075)은 모뎀 칩셋으로, 네트워크는 3G, 4G, 또는 5G 통신 규격에 따르는 통신 네트워크를 통하여 외부 전자 기기와 통신을 수행할 수 있다. 또한, 통신부(1003)는 BLE(Bluetooth Low Energy), NFC/RFID, 와이파이 다이렉트(Wifi Direct), UWB, 및/또는 ZIGBEE 등의 통신 규격에 따른 통신을 수행하는 적어도 하나의 통신 모듈(미도시)을 더 포함할 수 있다.
또한, 차량용 전자 장치(1000)에 있어서, 포함되는 각 구성들, 예를 들어, 프로세서(1010), 입출력부(1002) 및 통신부(1003) 상호간은, 차량 네트워크를 통하여 상호 통신할 수 있다. 또한, 차량용 전자 장치(1000)와 차량(미도시) 내에 포함되는 다른 구성들 상호간은, 차량 네트워크를 통하여 상호 통신할 수 있다. 여기서, 차량 네트워크는 CAN(Controller Area Network), 및/또는 MOST(media Oriented Systems Transport) 등에 따른 네트워크가 될 수 있다.
한편, 도 5 및 도 10에 도시된 차량용 전자 장치(100, 1000)의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 차량용 전자 장치(100, 1000)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 11은 다른 실시예에 따른 모바일 장치의 구성을 나타내는 블록도이다. 도 11의 모바일 장치(1100)는 도 1의 모바일 장치(200)의 일 실시예일 수 있다.
도 11을 참조하면, 일 실시예에 따른 모바일 장치(1100)는 사용자 입력부(1110), 출력부(1120), 센싱부(1140), 프로세서(1105), 통신부(1130), A/V 입력부(1160), 및 메모리(1170)를 포함할 수 있다.
여기서, 통신부(1130), 프로세서(1105), 메모리(1170), 디스플레이(1121) 및 사용자 입력부(1110)는 도 6의 통신부(210), 프로세서(220), 메모리(230), 디스플레이(240) 및 사용자 입력부(250)에 각각 대응하므로, 동일한 설명은 생략하기로 한다.
센싱부(1140)는, 모바일 장치(1100)의 상태 또는 모바일 장치(1100) 주변의 상태를 감지하는 센서를 포함할 수 있다. 또한, 센싱부(1140)는 센서에서 감지된 정보를 프로세서(1105)로 전달할 수 있다. 센싱부(1140)는 지자기 센서(1141), 가속도 센서(1142), 온/습도 센서(1143), 적외선 센서(1144), 위치 센서(1146), 기압 센서(1147), 근접 센서(1148), RGB 센서(1149), 및 자이로스코프 센서(1145) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
A/V(Audio/Video) 입력부(1160)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1161)와 마이크로폰(1162) 등이 포함될 수 있다. 카메라(1161)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(1105) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1161)에서 처리된 화상 프레임은 메모리(1170)에 저장되거나 통신부(1130)를 통하여 외부로 전송될 수 있다. 카메라(1161)는 모바일 장치(1100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(1162)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1162)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1162)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
출력부(1120)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이(1121)와 음향 출력부(1122), 진동 모터(1123) 등이 포함될 수 있다.
음향 출력부(1122)는 통신부(1130)로부터 수신되거나 메모리(1170)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1122)는 모바일 장치(1100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1122)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1123)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1123)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1123)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
한편, 도 6 및 도 11에 도시된 모바일 장치 (200, 1100)의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 모바일 장치 (200, 1100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
한편, 일 실시예에 따른 차량용 전자 장치(100, 1000)의 프로세서(120, 1010)에서 수행되는 동작들 및 모바일 장치(200, 1100)의 프로세서(220, 1105)에서 수행되는 동작들 중 적어도 하나의 동작은 인공지능(AI: Artificial Intelligence) 기술을 이용하여 수행될 수 있다. 인공 지능(AI) 기술을 이용하여 수행되는 적어도 하나의 동작은 이하에서, 도 12를 참조하여 상세히 설명한다.
도 12는 개시된 실시예에서 인공 지능 기술을 이용하여 수행되는 동작을 설명하기 위한 도면이다.
구체적으로, 차량용 전자 장치(100, 1000)의 프로세서(120, 1010)에서 수행되는 i)콘텍스트 정보를 획득하는 동작, ii) 차량의 주행 상태 정보를 획득하는 동작, iii) 운전자의 상태 정보를 획득하는 동작, 및 iv) 모바일 장치로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행하는 동작 중 적어도 하나의 동작은, 신경망(neural network)을 통한 연산을 수행하는 인공지능(AI: Artificial Intelligence) 기술을 이용하여 수행될 수 있다.
또한, 모바일 장치(200, 1100)의 프로세서(220, 1105)에서 수행되는 i) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성하는 동작, ii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, iii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, 및 iv) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작 중 적어도 하나의 동작은 신경망(neural network)을 통한 연산을 수행하는 인공지능(AI: Artificial Intelligence) 기술을 이용하여 수행될 수 있다.
인공 지능 기술(이하, ‘AI 기술’)은 신경망(Neural Network)을 통한 연산을 수행하여 입력된 데이터를 분석 및/또는 분류 등과 같은 처리를 하여 목적하는 결과를 획득하는 기술이다.
이러한 AI 기술은 알고리즘을 활용하여 구현될 수 있다. 여기서, AI 기술을 구현하기 위한 알고리즘 또는 알고리즘의 집합을 신경망(Neural Network)이라 한다. 여기서, 신경망은 입력 데이터를 입력 받고, 전술한 분석 및/또는 분류를 위한 연산을 수행하여, 결과 데이터를 출력할 수 있다. 이렇게, 신경망이 입력 데이터에 대응되는 결과 데이터를 정확하게 출력하기 위해서는, 신경망을 학습(training) 시킬 필요가 있다. 여기서, '학습(training)'은 신경망으로 다양한 데이터들을 입력시키고, 입력된 데이터들을 분석하는 방법, 입력된 데이터들을 분류하는 방법, 및/또는 입력된 데이터들에서 결과 데이터 생성에 필요한 특징을 추출하는 방법 등을 신경망이 스스로 발견 또는 터득할 수 있도록 신경망을 훈련시키는 것을 의미할 수 있다. 구체적으로, 학습 과정을 통하여, 신경망은 학습 데이터(예를 들어, 서로 다른 복수의 이미지들)를 학습(training)하여 신경망 내부의 가중치 값들을 최적화하여 설정할 수 있다. 그리고, 최적화된 가중치 값들을 가지는 신경망을 통하여, 입력된 데이터를 스스로 학습(learning)함으로써, 목적하는 결과를 출력한다.
구체적으로, 신경망은 연산을 수행하는 내부의 레이어(layer)인 은닉 레이어(hidden layer)의 개수가 복수일 경우, 즉 연산을 수행하는 신경망의 심도(depth)가 증가하는 경우, 심층 신경망으로 분류될 수 있다. 신경망의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks) 등이 있으며, 전술한 예에 한정되지 않는다. 또한, 신경망은 세분화될 수 있다. 예를 들어, CNN 신경망은 DCNN(Deep Convolution Neural Network) 또는 캡스넷(Capsnet) 신경망(미도시) 등으로 세분화 될 수 있다.
개시된 실시예에서, 'AI 모델'은 입력 데이터를 수신하고 목적하는 결과를 출력하도록 동작하는 적어도 하나의 레이어를 포함하는 신경망을 의미할 수 있다. 또한, 'AI 모델'은 신경망을 통한 연산을 수행하여 목적하는 결과를 출력하는 알고리즘 또는 복수의 알고리즘의 집합, 이러한 알고리즘 또는 그의 집합을 실행하기 위한 프로세서(processor), 이러한 알고리즘 또는 그의 집합을 실행하기 위한 소프트웨어, 또는 이러한 알고리즘 또는 그의 집합을 실행하기 위한 하드웨어를 의미할 수 있다.
도 12를 참조하면, 신경망(1210)은 학습 데이터(training data)를 입력 받아 트레이닝(training)될 수 있다. 그리고, 학습된 신경망(1210)은 입력단(1220)으로 입력 데이터(1211)를 입력 받고, 출력단(1240)은 입력 데이터(1211)를 분석하여 목적하는 결과인 출력 데이터(1215)를 출력하기 위한 연산을 수행할 수 있다. 신경망을 통한 연산은 은닉 레이어(hidden layer)(1230)를 통하여 수행될 수 있다. 도 12에서는 편의상 은닉 레이어(1230)가 1단의 계층으로 형성되도록 간략화하여 도시하였으나, 은닉 레이어(1230)는 복수개의 계층으로 형성될 수 있다.
구체적으로, 개시된 실시예에서, 신경망(1210)은 차량용 전자 장치(100, 1000)에서 실행 중인 기능에 대한 정보, 차량용 전자 장치(100, 1000)에 출력되고 있는 화면 정보 등에 기초하여, 차량용 전자 장치(100, 1000)의 콘텍스트 정보를 획득하도록 학습될 수 있다. 또한, 개시된 실시예에서 신경망(1210)은 차량의 주행과 관련된 정보에 기초하여, 차량의 주행 상태 정보를 획득하도록 학습될 수 있다. 또한, 개시된 실시예에서 신경망(1210)은 운전자 영상, 운전자의 시선 정보, 운전자의 건강과 관련된 정보 등에 기초하여, 운전자의 상태 정보를 획득하도록 학습될 수 있다.
개시된 실시예에서 신경망(1210)은 모바일 장치(200, 1100)로부터 수신한 사용자 입력 정보에 기초하여, 대응되는 제어 동작을 결정하도록 학습될 수 있다.
개시된 실시예에서, 전술한 i)콘텍스트 정보를 획득하는 동작, ii) 차량의 주행 상태 정보를 획득하는 동작, iii) 운전자의 상태 정보를 획득하는 동작, 및 iv) 모바일 장치로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행하는 동작 중 적어도 하나의 동작 중 적어도 하나를 수행하는 신경망(1210)은 차량용 전자 장치(100, 1000)의 프로세서(120, 1010)내에 구현될 수 있다. 또는, i)콘텍스트 정보를 획득하는 동작, ii) 차량의 주행 상태 정보를 획득하는 동작, iii) 운전자의 상태 정보를 획득하는 동작, 및 iv) 모바일 장치로부터 수신한 입력 정보에 기초하여, 제어 동작을 수행하는 동작 중 적어도 하나를 수행하는 신경망(1210)은 차량용 전자 장치(100, 1000)와 구별되며, 차량 내에 위치하는 별도의 전자 장치(미도시) 또는 프로세서(미도시) 내에 구현될 수 있다.
또한, 전술한 신경망을 통한 연산은 일 실시예에 따른 차량용 전자 장치(100, 1000)와 무선 통신 네트워크를 통하여 통신할 수 있는 서버(미도시)에서 수행될 수 있다. 차량용 전자 장치(100, 1000)와 서버(미도시) 간의 통신은 이하에서, 도 13 및 도 14를 참조하여 자세히 후술하기로 한다.
또한, 개시된 실시예에서, 신경망(1210)은 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성하도록 학습될 수 있다. 또한, 개시된 실시예에서, 신경망(1210)은 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성하도록 학습될 수 있다. 또한, 개시된 실시예에서, 신경망(1210)은 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하도록 학습될 수 있다. 또한, 개시된 실시예에서, 신경망(1210)은 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하도록 학습될 수 있다.
개시된 실시예에서, 전술한 i) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성하는 동작, ii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, iii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, 및 iv) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작 중 적어도 하나를 수행하는 신경망(1210)은 모바일 장치(200, 1100)의 프로세서(220, 1105)내에 구현될 수 있다. 또는, i) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보에 기초하여, 제어 인터페이스를 생성하는 동작, ii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, iii) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작, 및 iv) 차량용 전자 장치(100, 1000)로부터 수신한 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자 상태 정보에 기초하여, 제어 인터페이스를 생성하는 동작 중 적어도 하나를 수행하는 신경망(1210)은 모바일 장치(200, 1100)와 구별되는 별도의 전자 장치(미도시) 또는 프로세서(미도시) 내에 구현될 수 있다.
또한, 전술한 신경망을 통한 연산은 일 실시예에 따른 모바일 장치(200, 1100)와 무선 통신 네트워크를 통하여 통신할 수 있는 서버(미도시)에서 수행될 수 있다. 모바일 장치(200, 1100)와 서버(미도시) 간의 통신은 도 15를 참조하여 자세히 후술하기로 한다.
도 13은 서버와 연동하여 동작하는 개시된 실시예에 따른 차량용 전자 장치를 나타내는 도면이다.
서버(1300)는 통신 네트워크(1301)를 통하여 차량용 전자 장치(100, 1000)와 데이터를 송수신하며 데이터를 처리하는 서버, 서버 시스템, 서버 기반의 장치 등을 포함할 수 있다.
개시된 실시예에서, 서버(1300)는 차량(1400)의 내부에 설치되는 차량용 전자 장치(100, 1000)와 통신하는 통신부, 및 적어도 하나의 인스트럭션을 수행하는 프로세서를 포함한다.
서버(1300)는 차량용 전자 장치(100, 1000)에서 실행 중인 기능에 대한 정보, 차량용 전자 장치(100, 1000)에 출력되고 있는 화면 정보 등을 수신할 수 있다. 또한, 서버(1300)는 차량 센서 모듈로부터 차량의 주행과 관련된 정보를 수신할 수 있다. 또한, 서버(1300)는 운전자 영상, 운전자의 시선 정보, 운전자의 건강과 관련된 정보 등을 수신할 수 있다.
서버(1300)는 AI 모델을 훈련시키고, 훈련된 AI 모델을 저장하고 있을 수 있다. 그리고, 서버(1300)는 훈련된 AI 모델과 수신한 정보를 이용하여, i) 콘텍스트 정보를 획득하는 동작, ii) 차량의 주행 상태 정보를 획득하는 동작, iii) 운전자의 상태 정보를 획득하는 동작 중 적어도 하나를 수행할 수 있다.
또한, 서버(1300)는 획득한 콘텍스트 정보, 차량의 주행 상태 정보 및 운전자의 상태 정보 중 적어도 하나를 차량용 전자 장치(100, 1000)로 전송하도록 통신부를 제어할 수 있다.
일반적으로, 차량용 전자 장치(100, 1000)는 메모리 저장 용량, 연산의 처리 속도, 학습 데이터 셋의 수집 능력 등이 서버(1300)에 비하여 제한적일 수 있다. 따라서, 대용량 데이터의 저장 및 대용량의 연산량이 필요한 동작은 서버(1300)에서 수행한 후, 통신 네트워크를 통하여 필요한 데이터 및/또는 이용되는 AI 모델을 차량용 전자 장치(100, 1000)에 전송할 수 있다. 그러면, 차량용 전자 장치(100, 1000)는 대용량의 메모리 및 빠른 연산 능력을 갖는 프로세서 없이도, 서버를 통하여 필요한 데이터 및/또는 AI 모델을 수신하여 이용함으로써, 빠르고 용이하게 필요한 동작을 수행할 수 있다.
도 14는 도 13을 상세하게 설명하기 위한 도면이다.
도 14의 차량용 전자 장치(100)는 도 5에서 설명한 차량용 전자 장치(100)와 동일한 경우를 예로 들어 설명 및 도시하였다.
도 14를 참조하면, 서버(1300)는 통신부(1310), 프로세서(1320) 및 데이터 베이스(1330)를 포함할 수 있다.
통신부(1310)는 차량용 전자 장치(100)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부(1310)는, 근거리 통신 모듈, 유선 통신 모듈, 이동 통신 모듈, 방송 수신 모듈 등과 같은 적어도 하나의 통신 모듈을 포함한다. 여기서, 적어도 하나의 통신 모듈은 방송 수신을 수행하는 튜너, 블루투스, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), CDMA, WCDMA, 인터넷, 3G, 4G, 및/또는 5G, 밀리미터파(mmWAVE)를 이용하여 통신을 수행하는 방식 등과 같은 통신 규격을 따르는 네트워크를 통하여 데이터 송수신을 수행할 수 있는 통신 모듈을 뜻한다.
예를 들어, 통신부(1310)가 밀리미터파(mmWAVE)를 이용하여 통신을 수행하면, 대용량의 데이터를 빠르게 송수신할 수 있다. 구체적으로, 차량에서는 대용량의 데이터를 빠르게 수신함으로써, 차량의 안전에 필요한 데이터(예를 들어, 자율 주행에 필요한 데이터, 네비게이션 서비스를 위해 필요한 데이터 등), 사용자 이용 컨텐츠(예를 들어, 영화, 음악 등)을 빠르게 제공함으로써, 차량의 안전성 및/또는 사용자의 편리성을 증가시킬 수 있다.
구체적으로, 통신부(1310)에 포함되는 이동 통신 모듈은 3G, 4G, 및/또는 5G 등의 통신 규격에 따르는 통신 네트워크를 통하여 원거리에 위치하는 다른 장치(예를 들어, 서버(미도시))와 통신을 수행할 수 있다. 여기서, 원거리에 위치하는 서버(미도시)와 통신을 수행하는 통신 모듈을 '원거리 통신 모듈'이라 칭할 수 있다.
프로세서(1320)는 서버(1300)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1320)는, 서버(1300)의 적어도 하나의 인스트럭션, 및 프로그램들 중 적어도 하나를 실행함으로써, 요구되는 동작들을 수행할 수 있다.
또한, DB(1330)는 메모리(미도시)를 포함할 수 있으며, 메모리(미도시) 내에 서버(1300)가 소정 동작을 수행하기 위해서 필요한 적어도 하나의 인스트럭션, 프로그램, 데이터 중 적어도 하나를 저장할 수 있다. 또한, DB(1330)는 서버(1300)가 신경망에 따른 연산을 수행하기 위해서 필요한 데이터들을 저장할 수 있다.
구체적으로, 개시된 실시예에서, 서버(1300)는 도 12에서 설명한 신경망(1210)을 저장하고 있을 수 있다. 신경망(1210)은 프로세서(1150) 및 DB(1140) 중 적어도 하나에 저장될 수 있다. 서버(1300)가 포함하는 신경망(1210)은 학습이 완료된 신경망이 될 수 있다.
또한, 서버(1300)는 학습이 완료된 신경망을 통신부(1330)를 통하여 차량용 전자 장치(100)의 통신부(110)로 전송할 수 있다. 그러면, 차량용 전자 장치(100)는 학습이 완료된 신경망을 획득 및 저장하고, 신경망을 통하여 목적하는 출력 데이터를 획득할 수 있다.
도 15는 서버와 연동하여 동작하는 개시된 실시예에 따른 모바일 장치를 나타내는 도면이다.
도 15의 모바일 장치(200)는 도 6에서 설명한 모바일 장치(200)와 동일한 경우를 예로 들어 설명 및 도시하였다.
서버(1500)는 통신 네트워크를 통하여 모바일 장치(200)와 데이터를 송수신하며 데이터를 처리하는 서버, 서버 시스템, 서버 기반의 장치 등을 포함할 수 있다.
개시된 실시예에서, 서버(1500)는 통신부(1510), 프로세서(1520) 및 DB(1530)를 포함한다.
통신부(1510)는 모바일 장치(200)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부(1510)의 구체적인 구성은, 도 14의 통신부(1310)의 구성과 동일 대응되므로, 상세한 설명은 생략한다.
일 실시예에 따른 통신부(1510)는 모바일 장치(200)로부터 차량용 전자 장치의 콘텍스트 정보, 차량의 주행 상태 정보, 운전자 상태 정보 중 적어도 하나를 수신할 수 있다.
프로세서(1520)는 서버(1500)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1520)는, 서버(1500)의 적어도 하나의 인스트럭션, 및 프로그램들 중 적어도 하나를 실행함으로써, 요구되는 동작들을 수행할 수 있다.
또한, DB(1530)는 메모리(미도시)를 포함할 수 있으며, 메모리(미도시) 내에 서버(1500)가 소정 동작을 수행하기 위해서 필요한 적어도 하나의 인스트럭션, 프로그램, 데이터 중 적어도 하나를 저장할 수 있다. 또한, DB(1530)는 서버(1500)가 신경망에 따른 연산을 수행하기 위해서 필요한 데이터들을 저장할 수 있다.
구체적으로, 개시된 실시예에서, 서버(1500)는 도 12에서 설명한 신경망(1210)을 저장하고 있을 수 있다. 신경망(1210)은 프로세서(1520) 및 DB(1530) 중 적어도 하나에 저장될 수 있다. 서버(1500)가 포함하는 신경망(1210)은 학습이 완료된 신경망이 될 수 있다.
프로세서(1520)는 학습이 완료된 신경망을 포함하는 AI 모델 및 수신한 정보를 이용하여, 제어 인터페이스를 생성할 수 있다. 또한, 프로세서(1520)는 생성된 제어 인터페이스에 대한 정보를 모바일 장치(200)로 전송하도록 통신부(1510)를 제어할 수 있다.
또한, 서버(1500)는 학습이 완료된 신경망을 통신부(1510)를 통하여 모바일 장치(200)의 통신부(210)로 전송할 수 있다. 그러면, 모바일 장치(1200)는 학습이 완료된 신경망을 획득 및 저장하고, 신경망을 통하여 목적하는 출력 데이터를 획득할 수 있다.
일반적으로, 모바일 장치(200)는 메모리 저장 용량, 연산의 처리 속도, 학습 데이터 셋의 수집 능력 등이 서버(1500)에 비하여 제한적일 수 있다. 따라서, 대용량 데이터의 저장 및 대용량의 연산량이 필요한 동작은 서버(1500)에서 수행한 후, 통신 네트워크를 통하여 필요한 데이터 및/또는 이용되는 AI 모델을 모바일 장치(200)에 전송할 수 있다. 그러면, 모바일 장치(200)는 대용량의 메모리 및 빠른 연산 능력을 갖는 프로세서 없이도, 서버(1500)를 통하여 필요한 데이터 및/또는 AI 모델을 수신하여 이용함으로써, 빠르고 용이하게 필요한 동작을 수행할 수 있다.
일 실시예에 따른 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 개시된 실시예들에 따른 차량용 전자 장치, 모바일 장치, 차량용 전자 장치를 제어하는 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (21)

  1. 차량용 전자 장치를 제어하는 모바일 장치에 있어서,
    상기 차량용 전자 장치와 통신을 수행하는 통신부;
    디스플레이;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 차량용 전자 장치로부터 상기 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보를 수신하도록 상기 통신부를 제어하고,
    상기 차량용 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보에 기초하여, 상기 차량용 전자 장치를 제어하기 위한 제어 인터페이스를 생성하고,
    상기 제어 인터페이스를 출력하도록 상기 디스플레이를 제어하는, 모바일 장치.
  2. 제1항에 있어서,
    상기 차량용 전자 장치의 콘텍스트 정보는,
    상기 차량용 전자 장치에서 실행 중인 기능에 대한 정보 및 상기 실행 중인 기능에서 이용 가능한 제어 기능에 대한 정보 중 적어도 하나를 포함하고,
    상기 차량의 주행 상태 정보는,
    상기 차량의 주행 여부 및 상기 차량의 주행 속도 정보 중 적어도 하나를 포함하는, 모바일 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 콘텍스트 정보에 기초하여, 입력 가능한 제어 기능들을 결정하고, 결정된 제어 기능들 중 적어도 일부를 포함하는 상기 제어 인터페이스를 생성하는, 모바일 장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    상기 차량이 정차 중인 경우, 제1 제어 인터페이스를 생성하고, 상기 차량이 주행 중인 경우, 제2 제어 인터페이스를 생성하고,
    상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적은, 모바일 장치.
  5. 제1항에 있어서,
    상기 모바일 장치는,
    상기 제어 인터페이스에 대한 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
    상기 프로세서는,
    상기 사용자 입력에 대응하는 입력 정보를 상기 차량용 전자 장치로 전송하도록 상기 통신부를 제어하는, 모바일 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 차량용 전자 장치로부터, 상기 차량을 운전하는 운전자 상태 정보를 수신하고,
    상기 운전자 상태 정보에 기초하여, 상기 제어 인터페이스를 생성하는, 모바일 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 운전자 상태 정보가 정상 상태를 나타내는 경우, 제1 제어 인터페이스를 생성하고, 상기 운전자 상태 정보가 비정상 상태를 나타내는 경우, 제2 제어 인터페이스를 생성하도록 상기 디스플레이를 제어하며,
    상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적은, 모바일 장치.
  8. 제6항에 있어서,
    상기 프로세서는,
    상기 운전자 상태 정보에 기초하여, 경고음, 진동, 및 알림 메시지 중 적어도 하나를 출력하도록 제어하는 모바일 장치.
  9. 차량용 전자 장치에 있어서,
    모바일 장치와 통신을 수행하는 통신부;
    하나 이상의 인스트럭션들을 저장하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 차량용 전자 장치에서 실행 중인 기능과 관련된 콘텍스트 정보 및 차량의 주행 상태 정보를 상기 모바일 장치로 전송하도록 상기 통신부를 제어하고,
    상기 콘텍스트 정보 및 차량의 주행 상태 정보에 기초하여 상기 모바일 장치에 생성된 제어 인터페이스를 통하여 수신되는 사용자 입력에 대응되는 입력 정보를 상기 모바일 장치로부터 수신하고, 상기 입력 정보에 대응하는 제어 동작을 수행하는, 차량용 전자 장치.
  10. 제9항에 있어서,
    상기 차량용 전자 장치는,
    상기 차량용 전자 장치에서 실행 중인 기능에 대응하는 인터페이스 화면을 출력하는 디스플레이를 더 포함하고,
    상기 프로세서는
    상기 제어 동작이 수행됨에 따라 업데이트되는 상기 인터페이스 화면을 출력하도록 상기 디스플레이를 제어하는 차량용 전자 장치.
  11. 제9항에 있어서,
    상기 프로세서는,
    상기 차량의 차량 센서 모듈로부터 상기 차량의 주행과 관련된 정보를 수신하고, 상기 차량의 주행과 관련된 정보에 기초하여, 상기 차량의 주행 상태 정보를 획득하는, 차량용 전자 장치.
  12. 제9항에 있어서,
    상기 프로세서는,
    상기 차량을 운전하는 운전자 상태 정보를 획득하고, 상기 운전자 상태 정보를 상기 모바일 장치로 전송하도록 상기 통신부를 제어하는, 차량용 전자 장치.
  13. 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법에 있어서,
    상기 전자 장치로부터 상기 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보를 수신하는 단계;
    상기 차량용 전자 장치의 콘텍스트 정보 및 상기 차량의 주행 상태 정보에 기초하여, 상기 차량용 전자 장치를 제어하기 위한 제어 인터페이스를 생성하는 단계; 및
    상기 제어 인터페이스를 출력하는 단계를 포함하는, 방법.
  14. 제13항에 있어서,
    상기 차량용 전자 장치의 콘텍스트 정보는,
    상기 차량용 전자 장치에서 실행 중인 기능에 대한 정보 및 상기 실행 중인 기능에서 이용 가능한 제어 기능에 대한 정보 중 적어도 하나를 포함하고,
    상기 차량의 주행 상태 정보는,
    상기 차량의 주행 여부 및 상기 차량의 주행 속도 정보 중 적어도 하나를 포함하는, 방법.
  15. 제14항에 있어서,
    상기 제어 인터페이스를 결정하는 단계는,
    상기 콘텍스트 정보에 기초하여, 입력 가능한 제어 기능들을 결정하는 단계를 포함하고,
    상기 제어 인터페이스를 생성하는 단계는,
    상기 결정된 제어 기능들 중 적어도 일부를 포함하는 상기 제어 인터페이스를 생성하는 단계를 포함하는, 방법.
  16. 제14항에 있어서,
    상기 제어 인터페이스를 생성하는 단계는,
    상기 차량이 정차 중인 경우, 제1 제어 인터페이스를 생성하고, 상기 차량이 주행 중인 경우, 제2 제어 인터페이스를 생성하는 단계를 포함하고,
    상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적은, 방법.
  17. 제13항에 있어서,
    상기 제어하는 방법은,
    상기 제어 인터페이스에 대한 사용자 입력을 수신하는 단계; 및
    상기 사용자 입력에 대응하는 입력 정보를 상기 차량용 전자 장치로 전송하는 단계를 더 포함하는, 방법.
  18. 제13항에 있어서,
    상기 제어하는 방법은,
    상기 차량용 전자 장치로부터, 상기 차량을 운전하는 운전자 상태 정보를 수신하는 단계를 더 포함하고,
    상기 제어 인터페이스를 생성하는 단계는,
    상기 운전자 상태 정보에 기초하여, 상기 제어 인터페이스를 생성하는 단계를 포함하는, 방법.
  19. 제18항에 있어서,
    상기 제어 인터페이스를 생성하는 단계는,
    상기 운전자 상태 정보가 정상 상태를 나타내는 경우, 제1 제어 인터페이스를 생성하고, 상기 운전자 상태 정보가 비정상 상태를 나타내는 경우, 제2 제어 인터페이스를 생성하는 단계를 포함하고,
    상기 제2 제어 인터페이스에 포함되는 제어 기능들은, 상기 제1 제어 인터페이스에 포함된 제어 기능들보다 적은, 방법.
  20. 제18항에 있어서,
    상기 제어하는 방법은,
    상기 운전자 상태 정보에 기초하여, 경고음, 진동, 및 알림 메시지 중 적어도 하나를 출력하는 단계를 더 포함하는, 방법.
  21. 제13항의 방법을 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체.
KR1020210048045A 2021-04-13 2021-04-13 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법 KR20220141664A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020210048045A KR20220141664A (ko) 2021-04-13 2021-04-13 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법
EP21937101.0A EP4254920A4 (en) 2021-04-13 2021-12-15 ELECTRONIC DEVICE FOR VEHICLES, MOBILE DEVICE FOR CONTROLLING AN ELECTRONIC DEVICE FOR VEHICLES, AND METHOD FOR CONTROLLING AN ELECTRONIC DEVICE FOR VEHICLES
PCT/KR2021/019102 WO2022220368A1 (ko) 2021-04-13 2021-12-15 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법
CN202180096953.0A CN117157965A (zh) 2021-04-13 2021-12-15 用于车辆的电子设备、用于控制用于车辆的电子设备的移动设备以及通过使用移动设备来控制用于车辆的电子设备的方法
US17/568,029 US20220324325A1 (en) 2021-04-13 2022-01-04 Vehicular electronic device, mobile device for controlling the vehicular electronic device, and method of controlling the vehicular electronic device by using the mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210048045A KR20220141664A (ko) 2021-04-13 2021-04-13 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법

Publications (1)

Publication Number Publication Date
KR20220141664A true KR20220141664A (ko) 2022-10-20

Family

ID=83640356

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210048045A KR20220141664A (ko) 2021-04-13 2021-04-13 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법

Country Status (2)

Country Link
KR (1) KR20220141664A (ko)
WO (1) WO2022220368A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140028657A (ko) * 2012-08-30 2014-03-10 인포뱅크 주식회사 자동차 및 그의 단말기 인터페이스 제어 방법
US20150339031A1 (en) * 2013-01-04 2015-11-26 Johnson Controls Technology Company Context-based vehicle user interface reconfiguration
KR102266660B1 (ko) * 2015-01-20 2021-06-21 인포뱅크 주식회사 차량 인터페이스를 제어하는 휴대용 단말기 및 그 동작 방법
KR20170079045A (ko) * 2015-12-30 2017-07-10 주식회사대성엘텍 차량용 사용자 인터페이스 제공 방법 및 장치
KR102169168B1 (ko) * 2019-12-02 2020-10-22 고준택 안전운전 서비스 제공 시스템

Also Published As

Publication number Publication date
WO2022220368A1 (ko) 2022-10-20

Similar Documents

Publication Publication Date Title
US11745585B2 (en) Vehicle infotainment apparatus using widget and operation method thereof
US20180046255A1 (en) Radar-based gestural interface
US10466800B2 (en) Vehicle information processing device
US9550419B2 (en) System and method for providing an augmented reality vehicle interface
US9728187B2 (en) Electronic device, information terminal system, and method of starting sound recognition function
JP6103620B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
EP3502862A1 (en) Method for presenting content based on checking of passenger equipment and distraction
US9613459B2 (en) System and method for in-vehicle interaction
KR101474448B1 (ko) 컨텐츠 내비게이션 장치 및 그 방법과 그를 이용한텔레매틱스 단말기
US20230110773A1 (en) Control system and method using in-vehicle gesture input
WO2021082483A1 (en) Method and apparatus for controlling vehicle
JP6386618B2 (ja) ジェスチャ用のインテリジェントなチュートリアル
US20140281964A1 (en) Method and system for presenting guidance of gesture input on a touch pad
KR20160053596A (ko) 디바이스가 다른 디바이스를 제어하는 방법 및 그 디바이스
WO2016084360A1 (ja) 車両用表示制御装置
US20220415321A1 (en) Electronic device mounted in vehicle, and method of operating the same
US20190129517A1 (en) Remote control by way of sequences of keyboard codes
KR20220141664A (ko) 차량용 전자 장치, 차량용 전자 장치를 제어하는 모바일 장치 및 모바일 장치를 이용하여, 차량용 전자 장치를 제어하는 방법
EP4254920A1 (en) Electronic device for vehicle, mobile device for controlling electronic device for vehicle, and method for controlling electronic device for vehicle by using mobile device
JP6798608B2 (ja) ナビゲーションシステムおよびナビゲーションプログラム
US20210034207A1 (en) Operation image display device, operation image display system, and operation image display program
US20230224981A1 (en) User location detection method, vehicle electronic device performing same, and mobile device performing same
JP7377883B2 (ja) 端末装置、情報処理方法及び端末装置用プログラム
US11960914B2 (en) Methods and systems for suggesting an enhanced multimodal interaction
US10715983B2 (en) Method and device for coupling electronic appliances to a motor vehicle

Legal Events

Date Code Title Description
A201 Request for examination