KR102645313B1 - 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 - Google Patents
다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 Download PDFInfo
- Publication number
- KR102645313B1 KR102645313B1 KR1020220061749A KR20220061749A KR102645313B1 KR 102645313 B1 KR102645313 B1 KR 102645313B1 KR 1020220061749 A KR1020220061749 A KR 1020220061749A KR 20220061749 A KR20220061749 A KR 20220061749A KR 102645313 B1 KR102645313 B1 KR 102645313B1
- Authority
- KR
- South Korea
- Prior art keywords
- interaction
- interaction interface
- user
- content
- users
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000003993 interaction Effects 0.000 claims abstract description 407
- 230000001815 facial effect Effects 0.000 claims abstract description 12
- 230000003213 activating effect Effects 0.000 claims abstract description 11
- 238000001514 detection method Methods 0.000 claims description 28
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Abstract
본 발명의 일 실시예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.
Description
본 발명은 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치에 관한 것으로, 상세하게는, 무인 셔틀 버스와 같은 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있으며, 서로 다른 종류의 센서를 통해 사용자의 의도에 적합한 콘텐츠를 제공할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치에 관한 것이다.
최근, 자율 주행 차량의 개발 및 사용이 활발히 행해지고 있다. 이러한 자율 주행 차량은 사용자를 위한 인포테인먼트(infotainment)와 같은 콘텐츠를 제공하고 이를 제어하는 콘텐츠 제어 방법 및 콘텐츠 제어 장치가 널리 적용되고 있다.
그런데, 종래의 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치는 단일 사용자용 차량에 적합한 조작 방식, 예를 들어, 터치(touch) 및/또는 제스처(gesture)만으로 인터랙션(interaction)을 행하고 있다. 즉, 종래의 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치는 운전자 중심의 조작에 의해 행해지고 적용되었기 때문에, 무인 셔틀 버스와 같은 넓은 공간을 가진 다수의 사용자들을 위한 차량 내에서는 사용자들이 콘텐츠를 조작하는 데에 어려움이 있다는 문제점이 있다.
뷰잉 거리(viewing distance)에 기초한 적응적 스크린 인터페이스에 관한 종래 기술이 특허문헌 1(한국공개특허공보 제10-2015-0119053호)에 개시되어 있다.
특허문헌 1에 개시된 스크린 인터페이스는 디스플레이와 사용자와의 거리에 기초하여 서로 다른 종류의 복수의 센서(터치 센서 및 음성 센서) 중, 예를 들어, 터치 센서와 같은 특정 종류의 센서를 활성화시키는 구성을 개시하고 있다. 이러한 종래 기술에서는, 단순히 디스플레이와 사용자와의 거리에 기초하여 특정 종류의 센서를 활성화시키더라도, 예를 들어, 무의식적인 행위와 같은 사용자의 의도하지 않은 행위에 응답하여 불필요한 콘텐츠가 제공되는 경우가 발생하는 문제점이 있다.
본 발명의 목적은 차량을 사용하는 사용자 및 인터랙션 인터페이스(interaction interface)를 사용하는 인터랙션 인터페이스 사용자의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자의 의도에 적합한 콘텐츠를 제공할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 제공하는 데에 있다.
본 발명의 다른 목적은, 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 제공하는 데에 있다.
상기와 같은 목적을 달성하기 위하여, 본 발명의 실시예의 제1 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 실시예의 제2 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법은 a) 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 입력된 구동 신호 및 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계; b) 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계; c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및 d) 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계를 포함하는 것을 특징으로 한다.
본 발명의 제3 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치는 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고, 상기 인터랙션 인터페이스는 시각 콘텐츠를 표시하는 표시부, 음향 콘텐츠를 출력하는 음향 출력부, 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며, 상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고, 상기 제어부는 인터랙션 인터페이스를 통해 입력된 구동 신호 또는 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 것을 특징으로 한다.
본 발명의 제4 특징에 따르는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치는 복수의 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고, 상기 복수의 인터랙션 인터페이스의 각각은 시각 콘텐츠를 표시하는 표시부; 음향 콘텐츠를 출력하는 음향 출력부; 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며, 상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고, 상기 제어부는 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 입력된 구동 신호 및 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서를 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 것을 특징으로 한다.
본 발명의 실시예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치를 사용하면 다음과 같은 효과가 달성된다.
1. 차량을 사용하는 다수의 사용자 및 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자의 의도에 적합한 콘텐츠를 제공할 수 있다.
2. 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 차량 내에서 다수의 사용자들이 원활하게 콘텐츠를 조작할 수 있다.
이하, 본 발명에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 2는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 사시도이다.
도 3은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 4는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
도 5는 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 6은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 7은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
도 1은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 2는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 사시도이다.
도 3은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 4는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
도 5는 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이다.
도 6은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
도 7은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다.
이하, 본 발명에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이고, 도 2는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 사시도이며, 도 3은 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
이와 관련하여, 제어부(300), 저장부(400), 통신부(500), 신호 수집부(600), 및 구동부(700)는 도 1에 도시되어 있으나, 도 2 및 도 3에는 도시되어 있지 않다.
도 1 내지 도 3을 참조하여, 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000)를 설명하면 다음과 같다.
다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000)는 인터랙션 인터페이스(100), 사용자 상태 탐지부(200), 및 제어부(300)를 포함한다. 또한, 콘텐츠 제어 장치(1000)는 저장부(400) 및 통신부(500) 중 하나 이상을 더 포함할 수 있다. 또한, 콘텐츠 제어 장치(1000)는 신호 수집부(600) 및 구동부(700) 중 하나 이상을 더 포함할 수 있다.
본 명세서에서, "사용자(U1, U2, U3, U4)"는 "차량(C)을 사용하는 자", 즉, 차량(C)에 탑승한 자를 의미한다. 또한, "인터랙션 인터페이스 사용자(IIU)"는 사용자(U1, U2, U3, U4) 중 "인터랙션 인터페이스(100)를 사용하는 사용자(U1, U2, U3, U4) 중 임의의 사용자(예를 들어, 사용자(U1))"를 의미한다.
인터랙션 인터페이스(100)는 표시부(110), 음향 출력부(120), 및 복수의 인터랙션 센서들(130~170)을 포함한다.
표시부(110)는 시각 콘텐츠를 표시하는 구성요소이다. 표시부(110)는, 예를 들어, 터치스크린(touchscreen)을 가지는 터치스크린 패널 디스플레이(touchscreen panel display)로 구현될 수 있다. 또한, 표시부(110)는 인터랙션 인터페이스 사용자(IIU)가 차량(C)의 바깥을 볼 수 있게 하면서 시각 콘텐츠를 표시할 수 있는 투명 디스플레이일 수 있다. 도 3을 참조하면, 표시부(110)는 차량(C)의 내측면에 마련될 수 있다.
음향 출력부(120)는 음향 콘텐츠를 출력하는 구성요소이다. 예를 들어, 음향 출력부(120)는 표시부(110)의 주변에 배치된 스피커로 구현될 수도 있고, 인터랙션 인터페이스 사용자(IIU)가 착용하고 있는 이어폰으로 구현될 수도 있다. 예를 들어, 음향 출력부(120)가 이어폰인 경우, 음향 출력부(120)는 콘텐츠 제어 장치(1000)의 제어부(300) 및/또는 통신부(500)와 같은 나머지 구성요소로부터 음향 콘텐츠에 관한 신호를 수신할 수 있으나, 이에 한정되는 것은 아니다. 음향 출력부(120)는, 콘텐츠 제어 장치(1000)의 통신부(500)로부터 음향 콘텐츠에 관한 신호를 수신한 단말(도시되지 않음)과의 유선 연결 또는 무선 통신에 의해, 간접적으로 음향 콘텐츠에 관한 신호를 수신할 수도 있다.
복수의 인터랙션 센서들(130~170)은 서로 다른 종류의 인터랙션 센서들(130~170)을 의미한다. 복수의 인터랙션 센서들(130~170)은 인터랙션 인터페이스 사용자(IIU)의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지할 수 있다. 즉, 복수의 인터랙션 센서들(130~170)은 적어도 2 종류의 인터랙션 센서들을 포함한다. 또한, 복수의 인터랙션 센서들(130~170)은 표시부(110)의 주변에 마련될 수 있다.
예를 들어, 제1 인터랙션 센서(130)는 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 동작 센서이고, 제2 인터랙션 센서(140)는 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제스처 센서일 수 있다. 본 명세서에서, "제스처"는 "동작"보다 작은 움직임이다. 예를 들어, "동작"은 "팔"을 움직이는 것과 같이 상대적으로 큰 움직임이며, "제스처"는 "팔"이 실질적으로 정지된 상태에서 "손"을 움직이는 것과 같이 상대적으로 작은 움직임이다. 본 명세서에서, "손"은 "손 바닥" 및 "손가락" 중 하나 이상을 포함한다. 제스처 센서는, 예를 들어, Leap Motion, Inc.의 제스처 센서로 구현될 수 있으며, 동작 센서는, 예를 들어, 3DiVi Inc.의 NUITRACK SDK로 구현될 수 있다.
예를 들어, 제3 인터랙션 센서(150)는 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 시선 센서일 수 있다. 본 명세서에서, "인터랙션 인터페이스 사용자(IIU)의 시선을 감지함"은 "인터랙션 인터페이스 사용자(IIU)가 인터랙션 인터페이스(100)의 표시부(110) 중 어느 지점을 응시하고 있는 지를 감지함"을 의미할 수 있다. 시선 센서는, 예를 들어, Tobii Inc.의 시선 센서로 구현될 수 있다.
제4 인터랙션 센서(160)는 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 음성 센서일 수 있다. 음성 센서는, 예를 들어, 마이크로 구현될 수 있다.
제5 인터랙션 센서(170)는 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 터치 센서일 수 있다. 예를 들어, 터치 센서는 표시부(110)의 스크린에 터치 센서가 마련된 터치스크린 패널 디스플레이로 구현될 수 있다.
사용자 상태 탐지부(200)는 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 구성요소이다. 사용자 상태 탐지부(200)는 카메라로 구현될 수 있다. "인터랙션 인터페이스 사용자(IIU)의 얼굴 상태"는 "인터랙션 인터페이스 사용자(IIU)의 눈에 관한 상태" 및 "인터랙션 인터페이스 사용자(IIU)의 입에 관한 상태" 중 하나 이상을 포함할 수 있다. "인터랙션 인터페이스 사용자(IIU)의 몸 상태"는 "인터랙션 인터페이스 사용자(IIU)의 팔에 관한 상태" 및 "인터랙션 인터페이스 사용자(IIU)의 손에 관한 상태" 중 하나 이상을 포함할 수 있다.
제어부(300)는 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단한다. 또한, 제어부(300)는 사용자(U1, U2, U3, U4)의 위치 및 방향에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단할 수도 있다. 예를 들어, "사용자(U1, U2, U3, U4)의 방향"은 "사용자(U1, U2)의 얼굴의 방향"일 수 있다.
또한, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키도록 제어한다.
본 명세서에서, "복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시킨다"는 것은 "복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 활성화시키고, 불필요한 인터랙션 센서(130~170)를 비활성화시킴"을 의미한다. 또한, "불필요한 인터랙션 센서(130~170)를 비활성화시킴"은 "제어부(300)가 불필요한 인터랙션 센서(130~170)로부터 수신된 감지 신호를 무시함"을 의미할 수 있다.
또한, 제어부(300)는 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어한다. 본 명세서에서, "콘텐츠를 제공함"은 "초기 상태에서 콘텐츠를 제공하는 것"뿐만 아니라 "이미 콘텐츠가 제공되고 있는 상태에서 새로운 콘텐츠로 전환하는 것"을 포함할 수 있다.
저장부(400)는 콘텐츠를 저장하는 구성요소이다. 저장부(400)는 제어부(300)가 복수의 인터랙션 센서들(130~170)로부터 감지 신호를 수신하기 전에 콘텐츠를 미리 저장하고 있을 수도 있고, 제어부(300)가 수신한 복수의 인터랙션 센서들(130~170)의 감지 신호에 따라 콘텐츠 서버(도시되지 않음)로부터 콘텐츠를 수신하여 저장할 수도 있다.
통신부(500)는 콘텐츠 서버와 통신하기 위한 구성요소이다. 통신부(500)는, 예를 들어, 무선 통신을 행할 수 있다. 예를 들어, 통신부(500)는 콘텐츠 서버의 서버 통신부로부터 콘텐츠를 수신할 수도 있고, 저장부(400)에 저장되어 있는 콘텐츠를 인터랙션 인터페이스 사용자(IIU)가 휴대하고 있는 단말(도시되지 않음)의 단말 통신부로 송신할 수도 있다.
신호 수집부(600)는 복수의 인터랙션 센서들(130~170)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호를 수집하는 구성요소이다.
본 명세서에서, "제1 신호"는 하나 이상의 사용자(U1, U2, U3, U4)에 의해 복수의 인터랙션 센서들(130~170) 중 하나 이상을 통해 입력된 구동 신호, 및 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)에 의해 감지된 감지 신호 중 하나 이상을 포함할 수 있다. 또한, "제2 신호"는 사용자 상태 탐지부(200)에 의해 탐지된 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 인터랙션 인터페이스 사용자 상태 중 하나 이상을 포함할 수 있다.
구동부(700)는 복수의 인터랙션 센서들(130~170)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호 중 하나 이상에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키는 구성요소이다.
도 4는 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다. 도 4를 도 1 내지 도 3과 함께 참조하여, 본 발명의 일 실시형태에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법을 설명하면 다음과 같다.
단계 610에서, 제어부(300)는 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 사용자(U1, U2)의 위치에 근거하여 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)를 판단한다.
예를 들어, 단계 610에서, 제어부(300)가 인터랙션 인터페이스(100)에 대한 구동 신호의 입력이 있는지 여부를 판단하는 단계, 구동 신호의 입력이 있을 때 제어부(300)가 입력된 구동 신호에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계, 및 구동 신호의 입력이 없을 때 제어부(300)가 하나 이상의 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계가 행해질 수 있다.
인터랙션 인터페이스(100)에 대한 구동 신호의 입력은, 예를 들어, 사용자(U1)의 미리 정해진 손 제스처가 제스처 센서인 제2 인터랙션 센서(140)를 통해 감지됨으로써 행해질 수 있다. 이 경우, 제어부(300)는 미리 정해진 손 제스처를 행한 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. 또한, 예를 들어, 인터페이스(100)에 대한 구동 신호의 입력은 사용자(U1)의 음성이 음성 센서인 제4 인터랙션 센서(160)를 통해 감지됨으로써 행해질 수도 있다. 이 경우, 제어부(300)는 음성을 입력한 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다.
예를 들어, 제어부(300)는 하나 이상의 사용자(U1, U2, U3, U4) 중 인터랙션 인터페이스(100)에 가까운 미리 정해진 인원수의 사용자를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. 예를 들어, "미리 정해진 인원수"가 "1명"이라고 가정하면, 도 3에서, 2명의 사용자(U1, U2) 중 인터랙션 인터페이스(100)에 가까운 1명의 사용자(U1)를 인터랙션 인터페이스 사용자(IIU)로 판단한다. 또한, "인터랙션 인터페이스(100)에 가까운 사용자(U1)"는 "인터랙션 인터페이스(100)의 표시부(110)에 가까운 사용자(U1)"를 의미할 수 있다.
또한, 단계 610에서, 제어부(300)는 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 방향에 근거하여 인터랙션 인터페이스 사용자(IIU)를 판단할 수도 있다. 예를 들어, 제어부(300)는 얼굴이 인터랙션 인터페이스(100)을 향하는 하나 이상의 사용자(U1, U2, U3, U4) 중 인터랙션 인터페이스(100)에 가까운 미리 정해진 인원수의 사용자를 인터랙션 인터페이스 사용자(IIU)로 판단할 수 있다. "얼굴이 인터랙션 인터페이스(100)를 향함"은 "얼굴이 인터랙션 인터페이스(100)의 표시부(110)를 향함"을 의미할 수 있다.
또한, 단계 610에서, 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계 이전에, 사용자 상태 탐지부(200)가 하나 이상의 사용자(U1 ,U2, U3, U4)의 위치를 탐지하는 단계를 더 포함할 수 있고, 사용자 상태 탐지부(200)가 하나 이상의 사용자(U1, U2, U3, U4)의 위치 및 방향을 탐지하는 단계를 더 포함할 수도 있다.
단계 620에서, 사용자 상태 탐지부(200)는 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지한다.
단계 630에서, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키도록 제어한다. 예를 들어, 필요한 인터랙션 센서(130~170)의 선택적인 활성화는 제어부(300)가 구동부(700)를 제어함으로써 행해질 수 있다.
예를 들어, 단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 제1 인터랙션 센서(130) 및 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제2 인터랙션 센서(140)를 활성화시키도록 구동부(700)를 제어할 수 있다. 본 명세서에서, "인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태"는 "인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 하나 이상의 행위를 미리 정해진 시간 동안 계속해서 하는 상태"를 의미할 수 있다.
또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 동작 및 제스처 중 어느 행위도 하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 동작을 감지하는 제1 인터랙션 센서(130) 및 인터랙션 인터페이스 사용자(IIU)의 제스처를 감지하는 제2 인터랙션 센서(140)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 표시부(110) 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 제3 인터랙션 센서(150)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 표시부(110) 중 동일한 지점을 미리 정해진 시간 동안 응시하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 시선을 감지하는 제3 인터랙션 센서(150)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 입을 벌리고 있는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 제4 인터랙션 센서(160)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 입을 닫고 있는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 음성을 감지하는 제4 인터랙션 센서(160)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)의 손이 표시부(110)를 향하여 접근하는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 제5 인터랙션 센서(170)를 활성화시키도록 구동부(700)를 제어할 수 있다. 또한, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)의 손이 표시부(110)를 향하여 접근하지 않는 상태일 때, 인터랙션 인터페이스 사용자(IIU)의 터치를 감지하는 제5 인터랙션 센서(170)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
예를 들어, 단계 630에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU)가 미리 정해진 시간 동안 눈을 감고 있는 상태일 때, 이러한 인터랙션 인터페이스 사용자(IIU)를 인터랙션의 의도를 가지고 있지 않은 사용자로 판단하고, 이러한 인터랙션의 의도를 가지고 있지 않은 사용자를 인터랙션 인터페이스 사용자(IIU)의 범위에서 제외할 수도 있다.
단계 640에서, 제어부(300)는 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
본 발명의 실시예의 제1 특징에 따르면, 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법은 a) 인터랙션 인터페이스(100)를 통해 입력된 구동 신호 또는 하나 이상의 사용자(U1, U2, U3, U4)의 위치에 근거하여 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)를 판단하는 단계(610); b) 상기 인터랙션 인터페이스 사용자(IIU)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계(620); c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여 복수의 인터랙션 센서들(130~170) 중 필요한 인터랙션 센서(130~170)를 선택적으로 활성화시키는 단계(630); 및 d) 상기 필요한 인터랙션 센서(130~170)를 통한 인터랙션에 의해 표시부(110) 및 음향 출력부(120) 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계(640)를 포함하는 것을 특징으로 한다. 이에 따라, 차량(C)을 사용하는 하나 이상의 사용자(U1, U2 ,U3, U4) 및 인터랙션 인터페이스(100)를 사용하는 인터랙션 인터페이스 사용자(IIU)의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 인터랙션 인터페이스 사용자(IIU)의 의도에 적합한 콘텐츠를 제공할 수 있다.
도 5는 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치의 블록도이고, 도 6은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치를 구비한 차량의 내부를 보여주는 개략적인 평면도이다.
이와 관련하여, 제어부(300), 저장부(400), 통신부(500), 신호 수집부(600), 및 구동부(700)는 도 5에 도시되어 있으나, 도 6에는 도시되어 있지 않다.
도 5 및 도 6을 참조하여, 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000A)를 설명하면 다음과 같다.
변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 장치(1000A)는 복수의 인터랙션 인터페이스(100a, 100b, 100c), 사용자 상태 탐지부(200), 및 제어부(300)를 포함한다. 또한, 변형예에 따른 콘텐츠 제어 장치(1000A)는 저장부(400) 및 통신부(500) 중 하나 이상을 더 포함할 수 있다. 또한, 변형예에 따른 콘텐츠 제어 장치(1000A)는 신호 수집부(600) 및 구동부(700) 중 하나 이상을 더 포함할 수 있다. 변형예에 따른 콘텐츠 제어 장치(1000A)는, 도 1에 도시된 콘텐츠 제어 장치(1000)와 비교하여, 인터랙션 인터페이스(100a, 100b, 100c)가 복수개로 마련되어 있음에 차이가 있다.
복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각은 표시부(110a, 110b, 110c), 음향 출력부(120a, 120b, 120c), 및 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)을 포함한다. 도 6을 참조하면, 각각의 표시부(110a, 110b, 110c)는 차량(C)의 서로 다른 내측면에 마련될 수 있다.
제어부(300)는 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 하나 이상의 인터랙션 인터페이스(100a, 100b, 100c)를 통해 입력된 구동 신호 및 하나 이상의 사용자(U1, U2, U3)의 위치 중 하나 이상에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 또한, 제어부(300)는 하나 이상의 사용자(U1, U2, U3)의 위치 및 방향에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단할 수도 있다.
또한, 제어부(300)는 인터랙션 인터페이스 사용자 상태에 근거하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키도록 제어한다. 또한, 제어부(300)는 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
신호 수집부(600)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호를 수집한다.
구동부(700)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c)로부터 수신된 제1 신호 및 사용자 상태 탐지부(200)로부터 수신된 제2 신호 중 하나 이상에 근거하여 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시킨다.
도 7은 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법의 순서도이다. 도 5 내지 도 7을 참조하여, 본 발명의 일 실시형태의 변형예에 따른 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법을 설명하면 다음과 같다.
단계 710에서, 제어부(300)는 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대한 구동 신호의 입력이 있는지 여부를 판단한다. 구동 신호의 입력이 있을 때, 단계 711에서, 제어부(300)는 입력된 구동 신호에 근거하여 구동 신호가 입력된 인터랙션 인터페이스(100a, 100b, 100c)에 대한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 물론, 이러한 구동 신호의 입력은 복수의 인터랙션 인터페이스(100a, 100b, 100c) 모두에 대하여 행해질 수도 있고, 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 일부의 인터랙션 인터페이스에 대하여 행해질 수도 있다.
구동 신호의 입력이 없을 때, 단계 712에서, 제어부(300)는, 하나 이상의 사용자(U1, U2, U3)의 위치에 근거하여, 구동 신호가 입력되지 않은 인터랙션 인터페이스(100a, 100b, 100c)에 대한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단한다. 예를 들어, 제어부(300)는 사용자(U1, U2, U3)의 위치에 근거하여 제1 인터랙션 인터페이스(100a)를 사용하는 제1 인터랙션 인터페이스 사용자(IIU1), 제2 인터랙션 인터페이스(100b)를 사용하는 제2 인터랙션 인터페이스 사용자(IIU2), 및 제3 인터랙션 인터페이스(100c)를 사용하는 제3 인터랙션 인터페이스 사용자(IIU3)를 판단한다.
또한, 단계 712에서, 제어부(300)는 하나 이상의 사용자(U1, U2, U3)의 위치 및 방향에 근거하여 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단할 수도 있다.
또한, 단계 712에서, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단하기 전에, 사용자 상태 탐지부(200)가 사용자(U1, U2, U3)의 위치를 탐지하는 단계를 더 포함할 수 도 있고, 사용자 상태 탐지부(200)가 사용자(U1, U2, U3)의 위치 및 방향을 탐지하는 단계를 더 포함할 수도 있다.
단계 720에서, 사용자 상태 탐지부(200)는 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지한다.
단계 730에서, 인터랙션 인터페이스 사용자 상태에 근거하여, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키도록 제어한다. 예를 들어, 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)의 선택적인 활성화는 제어부(300)가 구동부(700)를 제어함으로써 행해질 수 있다.
예를 들어, 단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 동작을 감지하는 제1 인터랙션 센서(130a, 130b, 130c) 및 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 제스처를 감지하는 제2 인터랙션 센서(140a, 140b, 140c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 동작 및 제스처 중 어느 행위도 하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 동작을 감지하는 제1 인터랙션 센서(130a, 130b, 130c) 및 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 제스처를 감지하는 제2 인터랙션 센서(140a, 140b, 140c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c) 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 시선을 감지하는 제3 인터랙션 센서(150a, 150b, 150c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c) 중 동일한 지점을 미리 정해진 시간 동안 응시하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 시선을 감지하는 복수의 제3 인터랙션 센서(150a, 150b, 150c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 입을 벌리고 있는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 음성을 감지하는 제4 인터랙션 센서(160a, 160b, 160c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 입을 닫고 있는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 음성을 감지하는 제4 인터랙션 센서(160a, 160b, 160c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
단계 730에서, 제어부는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 손이 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c)를 향하여 접근하는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 터치를 감지하는 제5 인터랙션 센서(170a, 170b, 170c)를 활성화시키도록 구동부(700)를 제어할 수 있다. 제어부는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 손이 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 표시부(110a, 110b, 110c)를 향하여 접근하지 않는 상태일 때, 대응하는 인터랙션 인터페이스(100a, 100b, 100c)에서 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 터치를 감지하는 제5 인터랙션 센서(170a, 170b, 170c)를 비활성화시키도록 구동부(700)를 제어할 수 있다.
예를 들어, 단계 730에서, 제어부(300)는, 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)가 미리 정해진 시간 동안 눈을 감고 있는 상태일 때, 이러한 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 인터랙션의 의도를 가지고 있지 않은 사용자로 판단하고, 이러한 인터랙션의 의도를 가지고 있지 않은 사용자를 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 범위에서 제외할 수도 있다.
단계 740에서, 제어부(300)는 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어한다.
본 발명의 실시예의 제2 특징에 따르면, 다수의 사용자들을 위한 차량(C) 내에서의 콘텐츠 제어 방법은 a) 복수의 인터랙션 인터페이스(100a, 100b, 100c) 중 하나 이상의 인터랙션 인터페이스(100a, 100b, 100c)를 통해 입력된 구동 신호 및 하나 이상의 사용자(U1,U2,U3)의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스(100a, 100b, 100c)의 각각에 대하여 상기 인터랙션 인터페이스(100a, 100b, 100c)를 사용하는 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)를 판단하는 단계(710, 711. 712); b) 상기 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계(720); c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)에 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 복수의 인터랙션 센서들(130a~170a, 130b~170b, 130c~170c) 중 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 선택적으로 활성화시키는 단계(730); 및 d) 상기 대응하는 인터랙션 인터페이스(100a, 100b, 100c)의 상기 필요한 인터랙션 센서(130a~170a, 130b~170b, 130c~170c)를 통한 인터랙션에 의해 표시부(110a, 110b, 110c) 및 음향 출력부(120a, 120b, 120c) 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계(740)를 포함하는 것을 특징으로 한다. 이에 따라, 차량(C)을 사용하는 복수의 사용자(U1, U2, U3) 및 복수의 인터랙션 인터페이스(100a, 100b, 100c)를 사용하는 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 의도하지 않은 행위가 불필요한 콘텐츠를 제공하는 것을 방지하고 복수의 인터랙션 인터페이스 사용자(IIU1, IIU2, IIU3)의 의도에 적합한 콘텐츠를 제공할 수 있다. 또한, 예를 들어, 무인 셔틀 버스와 같은 넓은 공간을 가진 다수의 사용자들을 위한 차량(C) 내에서 다수의 사용자들(U1, U2, U3)이 원활하게 콘텐츠를 조작할 수 있다.
본 발명은 첨부된 예시 도면의 바람직한 실시형태를 중심으로 도시하고 설명하였지만, 이에 한정하지 않고 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이하의 청구범위에 기재된 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 실시할 수 있음은 물론이다.
100: 인터랙션 인터페이스
100a: 제1 인터랙션 인터페이스 100b: 제2 인터랙션 인터페이스
100c: 제3 인터랙션 인터페이스 110, 110a, 110b, 110c: 표시부
120, 120a, 120b, 120c: 음향 출력부
130, 130a, 130b, 130c: 제1 인터랙션 센서
140, 140a, 140b, 140c: 제2 인터랙션 센서
150, 150a, 150b, 150c: 제3 인터랙션 센서
160, 160a, 160b, 160c: 제4 인터랙션 센서
170, 170a, 170b, 170c: 제5 인터랙션 센서
200: 사용자 상태 탐지부 300: 제어부
400: 저장부 500: 통신부
1000, 1000A: 콘텐츠 제어 장치 C: 차량
U1, U2, U3: 사용자
IIU: 인터랙션 인터페이스 사용자
IIU1: 제1 인터랙션 인터페이스 사용자
IIU2: 제2 인터랙션 인터페이스 사용자
IIU3: 제3 인터랙션 인터페이스 사용자
100a: 제1 인터랙션 인터페이스 100b: 제2 인터랙션 인터페이스
100c: 제3 인터랙션 인터페이스 110, 110a, 110b, 110c: 표시부
120, 120a, 120b, 120c: 음향 출력부
130, 130a, 130b, 130c: 제1 인터랙션 센서
140, 140a, 140b, 140c: 제2 인터랙션 센서
150, 150a, 150b, 150c: 제3 인터랙션 센서
160, 160a, 160b, 160c: 제4 인터랙션 센서
170, 170a, 170b, 170c: 제5 인터랙션 센서
200: 사용자 상태 탐지부 300: 제어부
400: 저장부 500: 통신부
1000, 1000A: 콘텐츠 제어 장치 C: 차량
U1, U2, U3: 사용자
IIU: 인터랙션 인터페이스 사용자
IIU1: 제1 인터랙션 인터페이스 사용자
IIU2: 제2 인터랙션 인터페이스 사용자
IIU3: 제3 인터랙션 인터페이스 사용자
Claims (6)
- 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법에 있어서,
a) 복수의 인터랙션 인터페이스 및 사용자 상태 탐지부를 포함하는 콘텐츠 제어 장치의 상기 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 하나 이상의 사용자에 의해 입력된 구동 신호 및 상기 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자를 판단하는 단계;
b) 상기 사용자 상태 탐지부에 의해 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하는 단계;
c) 상기 인터랙션 인터페이스 사용자 상태에 근거하여, 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 단계; 및
d) 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서만을 통한 인터랙션에 의해 표시부 및 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하는 단계
를 포함하고,
상기 a) 단계는 상기 복수의 인터랙션 인터페이스의 각각에 대하여 구동 신호의 입력이 있는지 여부를 판단하는 단계, 상기 구동 신호의 입력이 있을 때 상기 구동 신호에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하는 단계, 및 상기 구동 신호의 입력이 없을 때 상기 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하는 단계를 포함하며,
상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 표시부 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 상기 표시부 중 어느 지점을 응시하고 있는지를 감지하는 제3 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법. - 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 동작 및 제스처 중 하나 이상의 행위를 하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 동작을 감지하는 제1 인터랙션 센서 및 상기 인터랙션 인터페이스 사용자의 제스처를 감지하는 제2 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
- 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자가 입을 벌리고 있는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 음성을 감지하는 제4 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
- 제1항에 있어서, 상기 c) 단계에서, 상기 인터랙션 인터페이스 사용자의 손이 상기 대응하는 인터랙션 인터페이스의 표시부를 향하여 접근하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자의 터치를 감지하는 제5 인터랙션 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법.
- 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치에 있어서,
복수의 인터랙션 인터페이스, 사용자 상태 탐지부, 및 제어부를 포함하고,
상기 복수의 인터랙션 인터페이스의 각각은 시각 콘텐츠를 표시하는 표시부; 음향 콘텐츠를 출력하는 음향 출력부; 및 상기 인터랙션 인터페이스를 사용하는 인터랙션 인터페이스 사용자의 동작, 제스처, 시선, 음성, 및 터치 중 2개 이상을 감지하는 복수의 인터랙션 센서들을 포함하며,
상기 사용자 상태 탐지부는 상기 인터랙션 인터페이스 사용자의 얼굴 상태 및 몸 상태에 관한 인터랙션 인터페이스 사용자 상태를 탐지하고,
상기 제어부는 상기 복수의 인터랙션 인터페이스 중 하나 이상의 인터랙션 인터페이스를 통해 하나 이상의 사용자에 의해 입력된 구동 신호 및 상기 하나 이상의 사용자의 위치 중 하나 이상에 근거하여 상기 복수의 인터랙션 인터페이스의 각각에 대하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 인터랙션 인터페이스 사용자 상태에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키도록 제어하며, 상기 대응하는 인터랙션 인터페이스의 상기 필요한 인터랙션 센서만을 통한 인터랙션에 의해 상기 표시부 및 상기 음향 출력부 중 하나 이상이 콘텐츠를 제공하도록 제어하고,
상기 제어부는 상기 복수의 인터랙션 인터페이스의 각각에 대하여 구동 신호의 입력이 있는지 여부를 판단하며, 상기 구동 신호의 입력이 있을 때 상기 구동 신호에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하고, 상기 구동 신호의 입력이 없을 때 상기 하나 이상의 사용자의 위치에 근거하여 상기 인터랙션 인터페이스 사용자를 판단하며,
상기 제어부는, 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 표시부 중 동일한 지점을 미리 정해진 시간 동안 응시하는 상태일 때, 상기 대응하는 인터랙션 인터페이스에서 상기 인터랙션 인터페이스 사용자가 상기 대응하는 인터랙션 인터페이스의 상기 표시부 중 어느 지점을 응시하고 있는지를 감지하는 시선 센서를 활성화시키는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치. - 제5항에 있어서, 상기 복수의 인터랙션 인터페이스의 각각에 대한 상기 복수의 인터랙션 센서들로부터 수신된 제1 신호 및 상기 사용자 상태 탐지부로부터 수신된 제2 신호를 수집하는 신호 수집부, 및 상기 제1 신호 및 상기 제2 신호 중 하나 이상에 근거하여 상기 인터랙션 인터페이스 사용자에 대응하는 인터랙션 인터페이스의 상기 복수의 인터랙션 센서들 중 필요한 인터랙션 센서를 선택적으로 활성화시키는 구동부 중 하나 이상을 더 포함하는 것을 특징으로 하는 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220061749A KR102645313B1 (ko) | 2021-07-13 | 2022-05-20 | 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210091384 | 2021-07-13 | ||
KR1020220061749A KR102645313B1 (ko) | 2021-07-13 | 2022-05-20 | 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210091384 Division | 2021-07-13 | 2021-07-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230011222A KR20230011222A (ko) | 2023-01-20 |
KR102645313B1 true KR102645313B1 (ko) | 2024-03-11 |
Family
ID=85108719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220061749A KR102645313B1 (ko) | 2021-07-13 | 2022-05-20 | 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102645313B1 (ko) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9159116B2 (en) | 2013-02-13 | 2015-10-13 | Google Inc. | Adaptive screen interfaces based on viewing distance |
US10817065B1 (en) * | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
-
2022
- 2022-05-20 KR KR1020220061749A patent/KR102645313B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20230011222A (ko) | 2023-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9678573B2 (en) | Interaction with devices based on user state | |
US20210082435A1 (en) | Multi-mode guard for voice commands | |
US10466800B2 (en) | Vehicle information processing device | |
EP2778865B1 (en) | Input control method and electronic device supporting the same | |
US9738158B2 (en) | Motor vehicle control interface with gesture recognition | |
JP2021166058A (ja) | 車両の中で触覚フィードバックを用いるジェスチャー・ベースの入力システム | |
EP2525271B1 (en) | Method and apparatus for processing input in mobile terminal | |
US10528150B2 (en) | In-vehicle device | |
US20150109191A1 (en) | Speech Recognition | |
US20100117959A1 (en) | Motion sensor-based user motion recognition method and portable terminal using the same | |
JP2012141988A (ja) | 視標追跡人間機械相互作用制御システムのためのシステム準備スイッチ | |
JPH0981309A (ja) | 入力装置 | |
JP2005174356A (ja) | 方向検出方法 | |
WO2021154611A1 (en) | Wrist-worn device-based inputs for an operating system | |
WO2019244670A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20130187845A1 (en) | Adaptive interface system | |
CN108369451B (zh) | 信息处理装置、信息处理方法及计算机可读存储介质 | |
KR101806172B1 (ko) | 차량 단말기 조작 시스템 및 그 방법 | |
KR102645313B1 (ko) | 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 | |
JP2005135439A (ja) | 操作入力装置 | |
CN111137208B (zh) | 应用于汽车的储物箱照明灯控制方法、装置及系统 | |
KR20120054739A (ko) | 사용자 인식을 통한 차량 유저인터페이스 제공 시스템 | |
KR101709129B1 (ko) | 멀티모달 차량 제어 장치 및 그 방법 | |
US20160217767A1 (en) | A Peripheral Electronic Device and Method for Using Same | |
CN111638786B (zh) | 车载后排投影显示系统的显示控制方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |