KR102645313B1 - 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 - Google Patents

다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 Download PDF

Info

Publication number
KR102645313B1
KR102645313B1 KR1020220061749A KR20220061749A KR102645313B1 KR 102645313 B1 KR102645313 B1 KR 102645313B1 KR 1020220061749 A KR1020220061749 A KR 1020220061749A KR 20220061749 A KR20220061749 A KR 20220061749A KR 102645313 B1 KR102645313 B1 KR 102645313B1
Authority
KR
South Korea
Prior art keywords
interaction
interaction interface
user
content
users
Prior art date
Application number
KR1020220061749A
Other languages
English (en)
Other versions
KR20230011222A (ko
Inventor
원광호
문연국
김민준
김지은
채승훈
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020220061749A priority Critical patent/KR102645313B1/ko
Publication of KR20230011222A publication Critical patent/KR20230011222A/ko
Application granted granted Critical
Publication of KR102645313B1 publication Critical patent/KR102645313B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Abstract

본 발명의 일 실시예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.

Description

다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치{Method and apparatus for controlling contents in vehicle for a plurality of users}
본 발명은 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치에 관한 것으로, 상세하게는, 무인 셔틀 버스와 같은 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있으며, 서로 다른 종류의 센서를 통해 사용자의 의도에 적합한 콘텐츠를 제공할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치에 관한 것이다.
최근, 자율 주행 차량의 개발 및 사용이 활발히 행해지고 있다. 이러한 자율 주행 차량은 사용자를 위한 인포테인먼트(infotainment)와 같은 콘텐츠를 제공하고 이를 제어하는 콘텐츠 제어 방법 및 콘텐츠 제어 장치가 널리 적용되고 있다.
그런데, 종래의 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치는 단일 사용자용 차량에 적합한 조작 방식, 예를 들어, 터치(touch) 및/또는 제스처(gesture)만으로 인터랙션(interaction)을 행하고 있다. 즉, 종래의 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치는 운전자 중심의 조작에 의해 행해지고 적용되었기 때문에, 무인 셔틀 버스와 같은 넓은 공간을 가진 다수의 사용자들을 위한 차량 내에서는 사용자들이 콘텐츠를 조작하는 데에 어려움이 있다는 문제점이 있다.
뷰잉 거리(viewing distance)에 기초한 적응적 스크린 인터페이스에 관한 종래 기술이 특허문헌 1(한국공개특허공보 제10-2015-0119053호)에 개시되어 있다.
특허문헌 1에 개시된 스크린 인터페이스는 디스플레이와 사용자와의 거리에 기초하여 서로 다른 종류의 복수의 센서(터치 센서 및 음성 센서) 중, 예를 들어, 터치 센서와 같은 특정 종류의 센서를 활성화시키는 구성을 개시하고 있다. 이러한 종래 기술에서는, 단순히 디스플레이와 사용자와의 거리에 기초하여 특정 종류의 센서를 활성화시키더라도, 예를 들어, 무의식적인 행위와 같은 사용자의 의도하지 않은 행위에 응답하여 불필요한 콘텐츠가 제공되는 경우가 발생하는 문제점이 있다.
한국공개특허공보 제10-2015-0119053호
본 발명의 목적은 차량을 사용하는 사용자 및 인터랙션 인터페이스(interaction interface)를 사용하는 인터랙션 인터페이스 사용자의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자의 의도에 적합한 콘텐츠를 제공할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 제공하는 데에 있다.
본 발명의 다른 목적은, 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 제공하는 데에 있다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 실시예의 제1 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 실시예의 제2 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 입력된 구동 신호 및 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 제3 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치는 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고, 상기 인터랙션 인터페이스는 시각 콘텐츠를 표시하는 표시부, 음향 콘텐츠를 출력하는 음향 출력부, 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며, 상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고, 상기 제어부는 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 것을 특징으로 한다.
본 발명의 제4 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치는 복수의 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고, 상기 복수의 인터랙션 인터페이스의 각각은 시각 콘텐츠를 표시하는 표시부; 음향 콘텐츠를 출력하는 음향 출력부; 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며, 상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고, 상기 제어부는 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 입력된 구동 신호 및 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 것을 특징으로 한다.
본 발명의 실시예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 사용하면 다음과 같은 효과가 달성된다.
1. 차량을 사용하는 다수의 사용자 및 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자의 의도에 적합한 콘텐츠를 제공할 수 있다.
2. 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있다.
이하, 본 발명에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 2는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 사시도이다.
도 3은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 4는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
도 5는 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 6은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 7은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
이하, 본 발명에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이고, 도 2는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 사시도이며, 도 3은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
이와 관련하여, 제어부(300), 저장부(400), 통신부(500), 신호 수집부(600), 및 구동부(700)는 도 1에 도시되어 있으나, 도 2 및 도 3에는 도시되어 있지 않다.
도 1 내지 도 3을 참조하여, 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000)를 설명하면 다음과 같다.
다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000)는 인터랙션 인터페이스(100), 사용자 상태 탐지부(200), 및 제어부(300)를 포함한다. 또한, 콘텐츠 제어 장치(1000)는 저장부(400) 및 통신부(500) 중 하나 이상을 더 포함할 수 있다. 또한, 콘텐츠 제어 장치(1000)는 신호 수집부(600) 및 구동부(700) 중 하나 이상을 더 포함할 수 있다.
본 명세서에서, "사용자(U1, U2, U3, U4)"는 "차량(C)을 사용하는 자", 즉, 차량(C)에 탑승한 자를 의미한다. 또한, "인터랙션 인터페이스 사용자(IIU)"는 사용자(U1, U2, U3, U4) 중 "인터랙션 인터페이스(100)를 사용하는 사용자(U1, U2, U3, U4) 중 임의의 사용자(예를 들어, 사용자(U1))"를 의미한다.
인터랙션 인터페이스(100)는 표시부(110), 음향 출력부(120), 및 복수의 인터랙션 센서들(130~170)을 포함한다.
표시부(110)는 시각 콘텐츠를 표시하는 구성요소이다. 표시부(110)는, 예를 들어, 터치스크린(touchscreen)을 가지는 터치스크린 패널 디스플레이(touchscreen panel display)로 구현될 수 있다. 또한, 표시부(110)는 인터랙션 인터페이스 사용자(IIU)가 차량(C)의 바깥을 볼 수 있게 하면서 시각 콘텐츠를 표시할 수 있는 투명 디스플레이일 수 있다. 도 3을 참조하면, 표시부(110)는 차량(C)의 내측면에 마련될 수 있다.
음향 출력부(120)는 음향 콘텐츠를 출력하는 구성요소이다. 예를 들어, 음향 출력부(120)는 표시부(110)의 주변에 배치된 스피커로 구현될 수도 있고, 인터랙션 인터페이스 사용자(IIU)가 착용하고 있는 이어폰으로 구현될 수도 있다. 예를 들어, 음향 출력부(120)가 이어폰인 경우, 음향 출력부(120)는 콘텐츠 제어 장치(1000)의 제어부(300) 및/또는 통신부(500)와 같은 나머지 구성요소로부터 음향 콘텐츠에 관한 신호를 수신할 수 있으나, 이에 한정되는 것은 아니다. 음향 출력부(120)는, 콘텐츠 제어 장치(1000)의 통신부(500)로부터 음향 콘텐츠에 관한 신호를 수신한 단말(도시되지 않음)과의 유선 연결 또는 무선 통신에 의해, 간접적으로 음향 콘텐츠에 관한 신호를 수신할 수도 있다.
복수의 인터랙션 센서들(130~170)은 서로 다른 종류의 인터랙션 센서들(130~170)을 의미한다. 복수의 인터랙션 센서들(130~170)은 인터랙션 인터페이스 사용자(IIU)의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지할 수 있다. 즉, 복수의 인터랙션 센서들(130~170)은 적어도 2 종류의 인터랙션 센서들을 포함한다. 또한, 복수의 인터랙션 센서들(130~170)은 표시부(110)의 주변에 마련될 수 있다.
예를 들어, 제1 인터랙션 센서(130)는 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 동작 센서이고, 제2 인터랙션 센서(140)는 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제스처 센서일 수 있다. 본 명세서에서, "제스처"는 "동작"보다 작은 움직임이다. 예를 들어, "동작"은 "팔"을 움직이는 것과 같이 상대적으로 큰 움직임이며, "제스처"는 "팔"이 실질적으로 정지된 상태에서 "손"을 움직이는 것과 같이 상대적으로 작은 움직임이다. 본 명세서에서, "손"은 "손 바닥" 및 "손가락" 중 하나 이상을 포함한다. 제스처 센서는, 예를 들어, Leap Motion, Inc.의 제스처 센서로 구현될 수 있으며, 동작 센서는, 예를 들어, 3DiVi Inc.의 NUITRACK SDK로 구현될 수 있다.
예를 들어, 제3 인터랙션 센서(150)는 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 시선 센서일 수 있다. 본 명세서에서, "인터랙션 인터페이스 사용자(IIU)의 시선을 감지함"은 "인터랙션 인터페이스 사용자(IIU)가 인터랙션 인터페이스(100)의 표시부(110) 중 어느 지점을 응시하고 있는 지를 감지함"을 의미할 수 있다. 시선 센서는, 예를 들어, Tobii Inc.의 시선 센서로 구현될 수 있다.
제4 인터랙션 센서(160)는 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 음성 센서일 수 있다. 음성 센서는, 예를 들어, 마이크로 구현될 수 있다.
제5 인터랙션 센서(170)는 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 터치 센서일 수 있다. 예를 들어, 터치 센서는 표시부(110)의 스크린에 터치 센서가 마련된 터치스크린 패널 디스플레이로 구현될 수 있다.
사용자 상태 탐지부(200)는 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 구성요소이다. 사용자 상태 탐지부(200)는 카메라로 구현될 수 있다. "인터랙션 인터페이스 사용자(IIU)의 얼굴 상태"는 "인터랙션 인터페이스 사용자(IIU)의 눈에 관한 상태" 및 "인터랙션 인터페이스 사용자(IIU)의 입에 관한 상태" 중 하나 이상을 포함할 수 있다. "인터랙션 인터페이스 사용자(IIU)의 몸 상태"는 "인터랙션 인터페이스 사용자(IIU)의 팔에 관한 상태" 및 "인터랙션 인터페이스 사용자(IIU)의 손에 관한 상태" 중 하나 이상을 포함할 수 있다.
제어부(300)는 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단한다. 또한, 제어부(300)는 사용자(U1, U2, U3, U4)의 위치 및 방향에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단할 수도 있다. 예를 들어, "사용자(U1, U2, U3, U4)의 방향"은 "사용자(U1, U2)의 얼굴의 방향"일 수 있다.
또한, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키도록 제어한다.
본 명세서에서, "복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시킨다"는 것은 "복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 활성화시키고, 불필요한 인터랙션 센서(130~170)를 비활성화시킴"을 의미한다. 또한, "불필요한 인터랙션 센서(130~170)를 비활성화시킴"은 "제어부(300)가 불필요한 인터랙션 센서(130~170)로부터 수신된 감지 신호를 무시함"을 의미할 수 있다.
또한, 제어부(300)는 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어한다. 본 명세서에서, "콘텐츠를 제공함"은 "초기 상태에서 콘텐츠를 제공하는 것"뿐만 아니라 "이미 콘텐츠가 제공되고 있는 상태에서 새로운 콘텐츠로 전환하는 것"을 포함할 수 있다.
저장부(400)는 콘텐츠를 저장하는 구성요소이다. 저장부(400)는 제어부(300)가 복수의 인터랙션 센서들(130~170)로부터 감지 신호를 수신하기 전에 콘텐츠를 미리 저장하고 있을 수도 있고, 제어부(300)가 수신한 복수의 인터랙션 센서들(130~170)의 감지 신호에 따라 콘텐츠 서버(도시되지 않음)로부터 콘텐츠를 수신하여 저장할 수도 있다.
통신부(500)는 콘텐츠 서버와 통신하기 위한 구성요소이다. 통신부(500)는, 예를 들어, 무선 통신을 행할 수 있다. 예를 들어, 통신부(500)는 콘텐츠 서버의 서버 통신부로부터 콘텐츠를 수신할 수도 있고, 저장부(400)에 저장되어 있는 콘텐츠를 인터랙션 인터페이스 사용자(IIU)가 휴대하고 있는 단말(도시되지 않음)의 단말 통신부로 송신할 수도 있다.
신호 수집부(600)는 복수의 인터랙션 센서들(130~170)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호를 수집하는 구성요소이다.
본 명세서에서, "제1 신호"는 하나 이상의 사용자(U1, U2, U3, U4)에 의해 복수의 인터랙션 센서들(130~170) 중 하나 이상을 통해 입력된 구동 신호, 및 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)에 의해 감지된 감지 신호 중 하나 이상을 포함할 수 있다. 또한, "제2 신호"는 사용자 상태 탐지부(200)에 의해 탐지된 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 인터랙션 인터페이스 사용자 상태 중 하나 이상을 포함할 수 있다.
구동부(700)는 복수의 인터랙션 센서들(130~170)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호 중 하나 이상에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키는 구성요소이다.
도 4는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다. 도 4를 도 1 내지 도 3과 함께 참조하여, 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법을 설명하면 다음과 같다.
단계 610에서, 제어부(300)는 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 사용자(U1, U2)의 위치에 근거하여 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)를 판단한다.
예를 들어, 단계 610에서, 제어부(300)가 인터랙션 인터페이스(100)에 대한 구동 신호의 입력이 있는지 여부를 판단하는 단계, 구동 신호의 입력이 있을 때 제어부(300)가 입력된 구동 신호에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계, 및 구동 신호의 입력이 없을 때 제어부(300)가 하나 이상의 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계가 행해질 수 있다.
인터랙션 인터페이스(100)에 대한 구동 신호의 입력은, 예를 들어, 사용자(U1)의 미리 정해진 손 제스처가 제스처 센서인 제2 인터랙션 센서(140)를 통해 감지됨으로써 행해질 수 있다. 이 경우, 제어부(300)는 미리 정해진 손 제스처를 행한 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. 또한, 예를 들어, 인터페이스(100)에 대한 구동 신호의 입력은 사용자(U1)의 음성이 음성 센서인 제4 인터랙션 센서(160)를 통해 감지됨으로써 행해질 수도 있다. 이 경우, 제어부(300)는 음성을 입력한 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다.
예를 들어, 제어부(300)는 하나 이상의 사용자(U1, U2, U3, U4) 중 인터랙션 인터페이스(100)에 가까운 미리 정해진 인원수의 사용자를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. 예를 들어, "미리 정해진 인원수"가 "1명"이라고 가정하면, 도 3에서, 2명의 사용자(U1, U2) 중 인터랙션 인터페이스(100)에 가까운 1명의 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단한다. 또한, "인터랙션 인터페이스(100)에 가까운 사용자(U1)"는 "인터랙션 인터페이스(100)의 표시부(110)에 가까운 사용자(U1)"를 의미할 수 있다.
또한, 단계 610에서, 제어부(300)는 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 방향에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단할 수도 있다. 예를 들어, 제어부(300)는 얼굴이 인터랙션 인터페이스(100)을 향하는 하나 이상의 사용자(U1, U2, U3, U4) 중 인터랙션 인터페이스(100)에 가까운 미리 정해진 인원수의 사용자를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. "얼굴이 인터랙션 인터페이스(100)를 향함"은 "얼굴이 인터랙션 인터페이스(100)의 표시부(110)를 향함"을 의미할 수 있다.
또한, 단계 610에서, 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계 이전에, 사용자 상태 탐지부(200)가 하나 이상의 사용자(U1 ,U2, U3, U4)의 위치를 탐지하는 단계를 더 포함할 수 있고, 사용자 상태 탐지부(200)가 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 방향을 탐지하는 단계를 더 포함할 수도 있다.
단계 620에서, 사용자 상태 탐지부(200)는 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지한다.
단계 630에서, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키도록 제어한다. 예를 들어, 필요한 인터랙션 센서(130~170)의 선택적인 활성화는 제어부(300)가 구동부(700)를 제어함으로써 행해질 수 있다.
예를 들어, 단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 제1 인터랙션 센서(130) 및 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제2 인터랙션 센서(140)를 활성화시키도록 구동부(700)를 제어할 수 있다. 본 명세서에서, "인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태"는 "인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 미리 정해진 시간 동안 계속해서 하는 상태"를 의미할 수 있다.
또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 어느 행위도 하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 제1 인터랙션 센서(130) 및 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제2 인터랙션 센서(140)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 표시부(110) 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 제3 인터랙션 센서(150)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 표시부(110) 중 동일한 지점을 미리 정해진 시간 동안 응시하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 제3 인터랙션 센서(150)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 입을 벌리고 있는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 제4 인터랙션 센서(160)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 입을 닫고 있는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 제4 인터랙션 센서(160)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)의 손이 표시부(110)를 향하여 접근하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 제5 인터랙션 센서(170)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)의 손이 표시부(110)를 향하여 접근하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 제5 인터랙션 센서(170)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
예를 들어, 단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 미리 정해진 시간 동안 눈을 감고 있는 상태일 때, 이러한 인터랙션 인터페이스 사용자(IIU)를 인터랙션의 의도를 가지고 있지 않은 사용자로 판단하고, 이러한 인터랙션의 의도를 가지고 있지 않은 사용자를 인터랙션 인터페이스 사용자(IIU)의 범위에서 제외할 수도 있다.
단계 640에서, 제어부(300)는 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
본 발명의 실시예의 제1 특징에 따르면, 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 하나 이상의 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계(610); b) 상기 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계(620); c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키는 단계(630); 및 d) 상기 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계(640)를 포함하는 것을 특징으로 한다. 이에 따라, 차량(C)을 사용하는 하나 이상의 사용자(U1, U2 ,U3, U4) 및 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자(IIU)의 의도에 적합한 콘텐츠를 제공할 수 있다.
도 5는 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이고, 도 6은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
이와 관련하여, 제어부(300), 저장부(400), 통신부(500), 신호 수집부(600), 및 구동부(700)는 도 5에 도시되어 있으나, 도 6에는 도시되어 있지 않다.
도 5 및 도 6을 참조하여, 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000A)를 설명하면 다음과 같다.
변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000A)는 복수의 인터랙션 인터페이스(100a, 100b, 100c), 사용자 상태 탐지부(200), 및 제어부(300)를 포함한다. 또한, 변형예에 따른 콘텐츠 제어 장치(1000A)는 저장부(400) 및 통신부(500) 중 하나 이상을 더 포함할 수 있다. 또한, 변형예에 따른 콘텐츠 제어 장치(1000A)는 신호 수집부(600) 및 구동부(700) 중 하나 이상을 더 포함할 수 있다. 변형예에 따른 콘텐츠 제어 장치(1000A)는, 도 1에 도시된 콘텐츠 제어 장치(1000)와 비교하여, 인터랙션 인터페이스(100a, 100b, 100c)가 복수개로 마련되어 있음에 차이가 있다.
복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각은 표시부(110a, 110b, 110c), 음향 출력부(120a, 120b, 120c), 및 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)을 포함한다. 도 6을 참조하면, 각각의 표시부(110a, 110b, 110c)는 차량(C)의 서로 다른 내측면에 마련될 수 있다.
제어부(300)는 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 하나 이상의 인터랙션 인터페이스(100a, 100b, 100c)를 통해 입력된 구동 신호 및 하나 이상의 사용자(U1, U2, U3)의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 또한, 제어부(300)는 하나 이상의 사용자(U1, U2, U3)의 위치 및 방향에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단할 수도 있다.
또한, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키도록 제어한다. 또한, 제어부(300)는 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
신호 수집부(600)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호를 수집한다.
구동부(700)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호 중 하나 이상에 근거하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시킨다.
도 7은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다. 도 5 내지 도 7을 참조하여, 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법을 설명하면 다음과 같다.
단계 710에서, 제어부(300)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 구동 신호의 입력이 있는지 여부를 판단한다. 구동 신호의 입력이 있을 때, 단계 711에서, 제어부(300)는 입력된 구동 신호에 근거하여 구동 신호가 입력된 인터랙션 인터페이스(100a, 100b, 100c)에 대한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 물론, 이러한 구동 신호의 입력은 복수의 인터랙션 인터페이스(100a, 100b, 100c) 모두에 대하여 행해질 수도 있고, 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 일부의 인터랙션 인터페이스에 대하여 행해질 수도 있다.
구동 신호의 입력이 없을 때, 단계 712에서, 제어부(300)는, 하나 이상의 사용자(U1, U2, U3)의 위치에 근거하여, 구동 신호가 입력되지 않은 인터랙션 인터페이스(100a, 100b, 100c)에 대한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 예를 들어, 제어부(300)는 사용자(U1, U2, U3)의 위치에 근거하여 제1 인터랙션 인터페이스(100a)를 사용하는 제1 인터랙션 인터페이스 사용자(IIU1), 제2 인터랙션 인터페이스(100b)를 사용하는 제2 인터랙션 인터페이스 사용자(IIU2), 및 제3 인터랙션 인터페이스(100c)를 사용하는 제3 인터랙션 인터페이스 사용자(IIU3)를 판단한다.
또한, 단계 712에서, 제어부(300)는 하나 이상의 사용자(U1, U2, U3)의 위치 및 방향에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단할 수도 있다.
또한, 단계 712에서, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단하기 전에, 사용자 상태 탐지부(200)가 사용자(U1, U2, U3)의 위치를 탐지하는 단계를 더 포함할 수 도 있고, 사용자 상태 탐지부(200)가 사용자(U1, U2, U3)의 위치 및 방향을 탐지하는 단계를 더 포함할 수도 있다.
단계 720에서, 사용자 상태 탐지부(200)는 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지한다.
단계 730에서, 인터랙션 인터페이스 사용자 상태에 근거하여, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키도록 제어한다. 예를 들어, 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)의 선택적인 활성화는 제어부(300)가 구동부(700)를 제어함으로써 행해질 수 있다.
예를 들어, 단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 동작을 감지하는 제1 인터랙션 센서(130a, 130b, 130c) 및 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 제스처를 감지하는 제2 인터랙션 센서(140a, 140b, 140c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 동작 및 제스처 중 어느 행위도 하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 동작을 감지하는 제1 인터랙션 센서(130a, 130b, 130c) 및 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 제스처를 감지하는 제2 인터랙션 센서(140a, 140b, 140c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c) 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 시선을 감지하는 제3 인터랙션 센서(150a, 150b, 150c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c) 중 동일한 지점을 미리 정해진 시간 동안 응시하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 시선을 감지하는 복수의 제3 인터랙션 센서(150a, 150b, 150c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 입을 벌리고 있는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 음성을 감지하는 제4 인터랙션 센서(160a, 160b, 160c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 입을 닫고 있는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 음성을 감지하는 제4 인터랙션 센서(160a, 160b, 160c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 손이 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c)를 향하여 접근하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 터치를 감지하는 제5 인터랙션 센서(170a, 170b, 170c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 손이 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c)를 향하여 접근하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 터치를 감지하는 제5 인터랙션 센서(170a, 170b, 170c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
예를 들어, 단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 미리 정해진 시간 동안 눈을 감고 있는 상태일 때, 이러한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 인터랙션의 의도를 가지고 있지 않은 사용자로 판단하고, 이러한 인터랙션의 의도를 가지고 있지 않은 사용자를 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 범위에서 제외할 수도 있다.
단계 740에서, 제어부(300)는 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
본 발명의 실시예의 제2 특징에 따르면, 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법은 a) 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 하나 이상의 인터랙션 인터페이스(100a, 100b, 100c)를 통해 입력된 구동 신호 및 하나 이상의 사용자(U1,U2,U3)의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 상기 인터랙션 인터페이스(100a, 100b, 100c)를 사용하는 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단하는 단계(710, 711. 712); b) 상기 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계(720); c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키는 단계(730); 및 d) 상기 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 상기 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계(740)를 포함하는 것을 특징으로 한다. 이에 따라, 차량(C)을 사용하는 복수의 사용자(U1, U2, U3) 및 복수의 인터랙션 인터페이스(100a, 100b, 100c)를 사용하는 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 의도에 적합한 콘텐츠를 제공할 수 있다. 또한, 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 다수의 사용자들을 위한 차량(C) 내에서 다수의 사용자들(U1, U2, U3)이 원활하게 콘텐츠를 조작할 수 있다.
본 발명은 첨부된 예시 도면의 바람직한 실시형태를 중심으로 도시하고 설명하였지만, 이에 한정하지 않고 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이하의 청구범위에 기재된 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 실시할 수 있음은 물론이다.
100: 인터랙션 인터페이스
100a: 제1 인터랙션 인터페이스 100b: 제2 인터랙션 인터페이스
100c: 제3 인터랙션 인터페이스 110, 110a, 110b, 110c: 표시부
120, 120a, 120b, 120c: 음향 출력부
130, 130a, 130b, 130c: 제1 인터랙션 센서
140, 140a, 140b, 140c: 제2 인터랙션 센서
150, 150a, 150b, 150c: 제3 인터랙션 센서
160, 160a, 160b, 160c: 제4 인터랙션 센서
170, 170a, 170b, 170c: 제5 인터랙션 센서
200: 사용자 상태 탐지부 300: 제어부
400: 저장부 500: 통신부
1000, 1000A: 콘텐츠 제어 장치 C: 차량
U1, U2, U3: 사용자
IIU: 인터랙션 인터페이스 사용자
IIU1: 제1 인터랙션 인터페이스 사용자
IIU2: 제2 인터랙션 인터페이스 사용자
IIU3: 제3 인터랙션 인터페이스 사용자

Claims (6)

  1. 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법에 있어서,
    a) 복수의 인터랙션 인터페이스 및 사용자 상태 탐지부를 포함하는 콘텐츠 제어 장치의 상기 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 하나 이상의 사용자에 의해 입력된 구동 신호 및 상기 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계;
    b) 상기 사용자 상태 탐지부에 의해 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계;
    c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및
    d) 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서만을 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계
    를 포함하고,
    상기 a) 단계는 상기 복수의 인터랙션 인터페이스의 각각에 대하여 구동 신호의 입력이 있는지 여부를 판단하는 단계, 상기 구동 신호의 입력이 있을 때 상기 구동 신호에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하는 단계, 및 상기 구동 신호의 입력이 없을 때 상기 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하는 단계를 포함하며,
    상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 표시부 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 상기 표시부 중 어느 지점을 응시하고 있는지를 감지하는 제3 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
  2. 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 동작을 감지하는 제1 인터랙션 센서 및 상기 인터랙션 인터페이스 사용자의 제스처를 감지하는 제2 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
  3. 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 입을 벌리고 있는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 음성을 감지하는 제4 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
  4. 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자의 손이 상기 대응하는 인터랙션 인터페이스의 표시부를 향하여 접근하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 터치를 감지하는 제5 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
  5. 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치에 있어서,
    복수의 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고,
    상기 복수의 인터랙션 인터페이스의 각각은 시각 콘텐츠를 표시하는 표시부; 음향 콘텐츠를 출력하는 음향 출력부; 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며,
    상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고,
    상기 제어부는 상기 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 하나 이상의 사용자에 의해 입력된 구동 신호 및 상기 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서만을 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하고,
    상기 제어부는 상기 복수의 인터랙션 인터페이스의 각각에 대하여 구동 신호의 입력이 있는지 여부를 판단하며, 상기 구동 신호의 입력이 있을 때 상기 구동 신호에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 구동 신호의 입력이 없을 때 상기 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하며,
    상기 제어부는, 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 표시부 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 상기 표시부 중 어느 지점을 응시하고 있는지를 감지하는 시선 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치.
  6. 제5항에 있어서, 상기 복수의 인터랙션 인터페이스의 각각에 대한 상기 복수의 인터랙션 센서들로부터 수신된 제1 신호 및 상기 사용자 상태 탐지부로부터 수신된 제2 신호를 수집하는 신호 수집부, 및 상기 제1 신호 및 상기 제2 신호 중 하나 이상에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 구동부 중 하나 이상을 더 포함하는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치.
KR1020220061749A 2021-07-13 2022-05-20 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 KR102645313B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220061749A KR102645313B1 (ko) 2021-07-13 2022-05-20 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210091384 2021-07-13
KR1020220061749A KR102645313B1 (ko) 2021-07-13 2022-05-20 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210091384 Division 2021-07-13 2021-07-13

Publications (2)

Publication Number Publication Date
KR20230011222A KR20230011222A (ko) 2023-01-20
KR102645313B1 true KR102645313B1 (ko) 2024-03-11

Family

ID=85108719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220061749A KR102645313B1 (ko) 2021-07-13 2022-05-20 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치

Country Status (1)

Country Link
KR (1) KR102645313B1 (ko)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9159116B2 (en) 2013-02-13 2015-10-13 Google Inc. Adaptive screen interfaces based on viewing distance
US10817065B1 (en) * 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna

Also Published As

Publication number Publication date
KR20230011222A (ko) 2023-01-20

Similar Documents

Publication Publication Date Title
US9678573B2 (en) Interaction with devices based on user state
US20210082435A1 (en) Multi-mode guard for voice commands
US10466800B2 (en) Vehicle information processing device
EP2778865B1 (en) Input control method and electronic device supporting the same
US9738158B2 (en) Motor vehicle control interface with gesture recognition
JP2021166058A (ja) 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム
EP2525271B1 (en) Method and apparatus for processing input in mobile terminal
US10528150B2 (en) In-vehicle device
US20150109191A1 (en) Speech Recognition
US20100117959A1 (en) Motion sensor-based user motion recognition method and portable terminal using the same
JP2012141988A (ja) 視標追跡人間機械相互作用制御システムのためのシステム準備スイッチ
JPH0981309A (ja) 入力装置
JP2005174356A (ja) 方向検出方法
WO2021154611A1 (en) Wrist-worn device-based inputs for an operating system
WO2019244670A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20130187845A1 (en) Adaptive interface system
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
KR101806172B1 (ko) 차량 단말기 조작 시스템 및 그 방법
KR102645313B1 (ko) 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치
JP2005135439A (ja) 操作入力装置
CN111137208B (zh) 应用于汽车的储物箱照明灯控制方法、装置及系统
KR20120054739A (ko) 사용자 인식을 통한 차량 유저인터페이스 제공 시스템
KR101709129B1 (ko) 멀티모달 차량 제어 장치 및 그 방법
US20160217767A1 (en) A Peripheral Electronic Device and Method for Using Same
CN111638786B (zh) 车载后排投影显示系统的显示控制方法、装置、设备及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant