KR20210103616A - 투명 패널을 제어하기 위한 장치 및 방법 - Google Patents

투명 패널을 제어하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR20210103616A
KR20210103616A KR1020200017708A KR20200017708A KR20210103616A KR 20210103616 A KR20210103616 A KR 20210103616A KR 1020200017708 A KR1020200017708 A KR 1020200017708A KR 20200017708 A KR20200017708 A KR 20200017708A KR 20210103616 A KR20210103616 A KR 20210103616A
Authority
KR
South Korea
Prior art keywords
user
glare
transparent panel
light source
dimming
Prior art date
Application number
KR1020200017708A
Other languages
English (en)
Inventor
다위드 코진스키
그르제고르슈 그르제샥
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200017708A priority Critical patent/KR20210103616A/ko
Priority to PCT/KR2021/001871 priority patent/WO2021162499A1/ko
Publication of KR20210103616A publication Critical patent/KR20210103616A/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/10Optical coatings produced by application to, or surface treatment of, optical elements
    • G02B1/11Anti-reflection coatings
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Instrument Panels (AREA)

Abstract

투명 패널을 기준으로 제 1 측에 있는 사용자의 눈의 위치와 제 2 측에 있는 광원의 위치를 인식하는 단계; 눈의 위치와 광원의 위치에 기초하여 광원에 의한 사용자의 눈부심을 예측하는 단계; 및 사용자의 눈부심이 발생할 것으로 예측된 경우, 투명 패널 중 광원의 광이 입사되는 부분을 디밍 처리하는 단계를 포함하는 일 실시예에 따른 투명 패널의 제어 방법이 개시된다.

Description

투명 패널을 제어하기 위한 장치 및 방법{APPARATUS AND METHOD FOR CONTROLLING TRANSPARENT PANEL}
본 개시는 패널의 제어 분야에 관한 것이다. 보다 구체적으로, 본 개시는 광원으로부터 사용자의 눈을 보호하기 위해 투명 패널을 제어하는 장치 및 방법에 관한 것이다.
투명 패널을 통해 오브젝트를 관찰할 수 있는 다양한 종류의 기기 (이하, 투명 패널 기기)가 존재한다. 예를 들어, 사용자는 자동차, 카메라, 망원경, 뷰 파인더, HMD(head mounted display) 등의 투명 패널 기기에 부착된 투명 패널을 통해 오브젝트들을 볼 수 있다.
투명 패널을 통해 볼 수 있는 오브젝트들 중에는 태양, 조명 등의 광원도 있는데, 이러한 광원으로부터 발생되는 광은 사용자에게 눈부심, 시력 저하 등의 악영향을 줄 수 있다.
특히, 자동차를 운전하는 사용자에게 눈부심은 치명적일 수 있다. 일반적으로, 눈부심이 발생한 후 사용자의 눈이 정상으로 되돌아 오는데 약 5초가 소요된다. 만약, 자동차가 80km/h로 운행하고 있었다면, 사용자의 시력이 정상적이지 않은 상태에서 110m를 이동하게 되는 것이므로, 보행자, 자동차 등과의 충돌 가능성이 높아진다. 또한, 사용자가 카메라를 이용하는 경우에도 태양 등의 광원에 의한 시력 저하가 발생할 수 있다.
따라서, 투명 패널로 입사되는 광에 의한 사용자의 눈부심을 방지하는 것이 사용자의 건강 및 사고 방지 측면에서 중요하다.
일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심을 미리 차단하는 것을 기술적 과제로 한다.
또한, 일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심을 차단하기 위한 디밍 처리 중에 사고 발생 가능성을 감소시키는 것을 기술적 과제로 한다.
또한, 일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심이 발생한 경우에는 이에 의한 영향을 최소화하고, 눈부심 예측 및 눈부심 방지의 정확도를 향상시키는 것을 기술적 과제로 한다.
일 실시예에 따른 투명 패널의 제어 방법은, 투명 패널을 기준으로 제 1 측에 있는 사용자의 눈의 위치와 제 2 측에 있는 광원의 위치를 인식하는 단계; 상기 인식된 눈의 위치와 광원의 위치에 기초하여 상기 광원에 의한 사용자의 눈부심을 예측하는 단계; 및 상기 사용자의 눈부심이 발생할 것으로 예측된 경우, 상기 투명 패널 중 상기 광원의 광이 입사되는 부분을 디밍 처리하는 단계를 포함할 수 있다.
상기 사용자의 눈부심을 예측하는 단계는, DNN(deep neural network) 기반으로 상기 사용자의 눈부심을 예측하는 단계를 포함하고, 상기 DNN은, 상기 광원의 위치, 상기 광원으로부터 발생하는 광의 세기, 상기 눈의 위치, 및 상기 사용자의 시각 능력 정보를 입력받아 상기 눈부심의 발생 여부를 예측할 수 있다.
상기 인식하는 단계는, 상기 광원으로부터 발생하는 광의 세기를 인식하는 단계를 포함하고, 상기 디밍 처리하는 단계는, 상기 광의 세기에 따라 상기 디밍 강도를 조절하는 단계를 포함할 수 있다.
상기 사용자의 눈부심을 예측하는 단계는, 광원이 오브젝트에 의해 오클루젼된 상태에서, 상기 사용자가 이동함에 따라 상기 광원의 오클루젼이 해제될 것으로 예측되면, 상기 사용자의 눈부심이 있을 것으로 예측하는 단계를 포함할 수 있다.
상기 인식하는 단계는, 상기 제 2 측에 있는 광원의 종류를 인식하는 단계를 포함하고, 상기 사용자의 눈부심을 예측하는 단계는, 상기 인식된 광원의 종류가 미리 결정된 종류에 해당하면, 상기 사용자의 눈부심이 발생할 것으로 예측하는 단계를 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 눈부심이 발생한 경우, 상기 제 2 측에 있는 오브젝트의 정보를 상기 투명 패널상에 표시하는 단계를 더 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 눈의 동공 크기의 측정 결과에 따라 상기 사용자에게 눈부심이 발생하였는지 여부를 판단하는 단계를 더 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 눈부심이 발생한 경우, 상기 사용자의 눈부심을 예측하는 DNN 또는 상기 디밍 처리 방식을 결정하는 DNN의 가중치를 갱신하는 단계를 더 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 눈부심이 발생한 경우, 상기 투명 패널의 미리 결정된 영역을 디밍 처리하는 단계를 더 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 눈부심이 발생함에 따라 상기 미리 결정된 영역을 디밍 처리한 후, 상기 디밍의 강도를 감소시키는 단계를 더 포함할 수 있다.
상기 투명 패널의 제어 방법은, 상기 사용자의 시야에서 상기 디밍 처리된 부분에 의해 가려지는 오브젝트의 정보를 상기 디밍 처리된 부분에 표시하는 단계를 더 포함할 수 있다.
일 실시예에 따른 투명 패널의 제어 장치는, 투명 패널을 기준으로 제 1 측에 있는 사용자의 눈의 위치와 제 2 측에 있는 광원의 위치를 인식하는 인식부; 상기 인식된 눈의 위치와 상기 광원의 위치에 기초하여 상기 광원에 의한 사용자의 눈부심을 예측하는 눈부심 예측부; 및 상기 사용자의 눈부심이 발생할 것으로 예측된 경우, 상기 투명 패널 중 상기 광원의 광이 입사되는 부분을 디밍(dimming) 처리하는 패널 제어부를 포함할 수 있다.
상기 눈부심 예측부는, DNN 기반으로 상기 사용자의 눈부심을 예측하고, 상기 DNN은, 상기 광원의 위치, 상기 광원으로부터 발생하는 광의 세기, 상기 눈의 위치, 및 상기 사용자의 시각 능력 정보를 입력받아 상기 눈부심의 발생 여부를 예측할 수 있다.
상기 인식부는, 상기 광원으로부터 발생하는 광의 세기를 인식하고, 상기 패널 제어부는, 상기 광의 세기에 따라 상기 디밍 강도를 조절할 수 있다.
상기 패널 제어부는, 상기 사용자의 눈부심이 발생한 경우, 상기 제 2 측에 있는 오브젝트의 정보를 상기 투명 패널상에 표시할 수 있다.
상기 사용자의 눈부심이 발생한 경우, 상기 사용자의 눈부심을 예측하는 DNN 또는 상기 디밍 처리 방식을 결정하는 DNN의 가중치가 갱신될 수 있다.
상기 패널 제어부는, 상기 사용자의 눈부심이 발생한 경우, 상기 투명 패널의 미리 결정된 영역을 디밍 처리할 수 있다.
상기 패널 제어부는, 상기 사용자의 눈부심이 발생함에 따라 상기 미리 결정된 영역을 디밍 처리한 후, 상기 디밍의 강도를 감소시킬 수 있다.
상기 패널 제어부는, 상기 사용자의 시야에서 상기 디밍 처리된 부분에 의해 가려지는 오브젝트의 정보를 상기 디밍 처리된 부분에 표시할 수 있다.
일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심을 미리 차단할 수 있다.
또한, 일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심을 차단하기 위한 디밍 처리 중에 사고 발생 가능성을 감소시킬 수 있다.
또한, 일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법은 사용자의 눈부심이 발생한 경우에는 이에 의한 영향을 최소화하고, 눈부심 예측 및 눈부심 방지의 정확도를 향상시킬 수 있다.
다만, 일 실시예에 따른 투명 패널을 제어하기 위한 장치 및 방법이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 투명 패널로 입사되는 광에 의해 사용자의 눈부심이 발생되는 상황을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 투명 패널의 제어 장치의 블록도이다.
도 3은 투명 패널 기기에 장착된 센서를 나타내는 예시적인 도면이다.
도 4는 눈부심 예측을 위한 DNN을 도시하는 예시적인 도면이다.
도 5는 디밍 처리 방식의 결정을 위한 DNN을 도시하는 예시적인 도면이다.
도 6은 광원에 의한 사용자의 눈부심을 방지하기 위해 디밍 처리된 투명 패널을 도시하는 도면이다.
도 7은 디밍 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 8은 광원이 오브젝트에 의해 오클루젼되었을 때의 눈부심 예측 과정 및 디밍 처리 과정을 설명하기 위한 도면이다.
도 9는 디밍 영역에 의해 가려지는 오브젝트를 설명하기 위한 도면이다.
도 10은 투명 패널의 디밍 영역 상에 표시되는 오브젝트 정보를 도시하는 도면이다.
도 11은 광원에 따라 변화되는 사용자의 동공의 크기를 나타내는 그래프이다.
도 12는 사용자에게 눈부심이 발생한 경우의 디밍 처리 과정을 나타내는 도면이다.
도 13은 사용자에게 눈부심이 발생한 경우 DNN의 가중치를 갱신하는 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 투명 패널의 제어 방법을 나타내는 순서도이다.
본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고, 이를 상세한 설명을 통해 설명하고자 한다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예를 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 실시예의 설명 과정에서 이용되는 숫자(예를 들어, 제 1, 제 2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.
또한, 본 명세서에서 '~부(유닛)', '모듈' 등으로 표현되는 구성요소는 2개 이상의 구성요소가 하나의 구성요소로 합쳐지거나 또는 하나의 구성요소가 보다 세분화된 기능별로 2개 이상으로 분화될 수도 있다. 또한, 이하에서 설명할 구성요소 각각은 자신이 담당하는 주기능 이외에도 다른 구성요소가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성요소 각각이 담당하는 주기능 중 일부 기능이 다른 구성요소에 의해 전담되어 수행될 수도 있음은 물론이다.
이하, 본 개시의 기술적 사상에 의한 실시예들을 차례로 상세히 설명한다.
도 1은 투명 패널(20)로 입사되는 광(32)에 의해 사용자(10)의 눈부심이 발생되는 상황을 설명하기 위한 도면이다.
자동차, 카메라, 망원경, HMD 등의 다양한 종류의 투명 패널 기기를 이용하는 사용자(10)는 투명 패널(20)을 기준으로 사용자(10)의 반대편에 위치하는 오브젝트들(31, 33, 34, 35)을 볼 수 있다.
도 1에 도시된 바와 같이, 오브젝트들(31, 33, 34, 35)은 자동차(33, 34), 태양(31), 건물(35), 보행자 (미도시) 등을 포함할 수 있는데, 태양(31)과 같은 광원으로부터 발산되는 광(32)이 사용자(10)의 시야(11)로 들어옴에 따라 사용자(10)에게 눈부심을 야기한다.
사용자(10)에게 눈부심을 야기하는 광원은, 직접 광을 발산하는 태양(31), 조명, 자동차(33, 34)의 전조등뿐만 아니라, 광원에 의해 발산된 광을 반사하는 창문(36), 바닥에 고인 물 등을 포함할 수 있다.
전술한 바와 같이, 사용자(10)가 자동차를 운행하는 동안에 눈부심이 발생하면 다른 자동차, 보행자 등과 충돌할 위험이 있으므로 사용자(10)의 눈부심을 효과적으로 방지하는 방안이 필요하다.
도 2는 일 실시예에 따른 투명 패널(20)의 제어 장치(200)의 블록도이다.
도 2를 참조하면, 일 실시예에 따른 제어 장치(200)는 인식부(210), 눈부심 예측부(230) 및 패널 제어부(250)를 포함한다. 인식부(210), 눈부심 예측부(230) 및 패널 제어부(250)는 적어도 하나의 프로세서로 구현될 수 있고, 메모리(미도시)에 저장된 프로그램에 따라 동작할 수 있다.
일 실시예에서, 제어 장치(200)는 투명 패널 기기에 포함되어 투명 패널(20)을 제어할 수 있다. 다른 실시예에서, 제어 장치(200)는 투명 패널(20)을 제어하기 위해 원격에서 투명 패널 기기와 연결될 수도 있다.
인식부(210)는 투명 패널(20)을 기준으로 제 1 측에 있는 사용자의 눈과 제 2 측에 있는 오브젝트를 인식한다. 인식부(210)는 센서(40)로부터 수신되는 센싱 데이터를 기초로 사용자의 눈의 위치와 오브젝트의 위치를 인식할 수 있다. 여기서, 눈의 위치를 인식한다는 것은, 눈의 좌표를 식별하는 것을 의미할 수 있고, 오브젝트를 인식한다는 것은, 오브젝트의 좌표와 오브젝트의 종류를 식별하는 것을 의미할 수 있다.
센서(40)는 카메라, 레이더, 광 센서 등을 포함할 수 있다. 센서(40)는 사용자 및 오브젝트를 센싱하고, 센싱 데이터를 인식부(210)로 전달한다. 구현예에 따라 센서(40)는 센싱 데이터를 패널 제어부(250) 및 눈부심 예측부(230) 중 적어도 하나로 전달할 수 있다.
카메라는 투명 패널(20)을 기준으로 제 1 측을 촬영하는 카메라와 제 2 측을 촬영하는 카메라를 포함할 수 있다. 또한, 레이더는 제 2 측에 있는 오브젝트의 위치 또는 투명 패널 기기로부터 오브젝트까지의 거리를 감지하는데 이용될 수 있고, 광 센서는 광원으로부터 발생되는 광의 세기를 감지하는 포토 다이오드를 포함할 수 있다.
센서(40)는 사용자, 구체적으로는 투명 패널 기기의 위치 및/또는 자세를 감지하기 위한 GPS 센서, 가속도 센서, 자이로 센서 등을 포함할 수 있다. 투명 패널 기기의 위치 및/또는 자세 정보는 사용자의 눈부심을 예측하기 위한 정보로 이용될 수 있다.
일 실시예에서, 센서(40)는 사용자(10) 및/또는 투명 패널 기기에 장착될 수 있다. 예를 들어, 투명 패널 기기가 자동차인 경우, 제 1 측을 촬영하기 위한 카메라는 자동차의 대쉬 보드나 룸미러 등에 장착될 수 있고, 제 2 측을 촬영하기 위한 카메라, 레이더는 자동차의 전방 범퍼, 룸미러의 뒷면 등에 장착될 수 있다.
도 3은 자동차(300)에 장착된 카메라를 도시하는 예시적인 도면으로서, 제 1 측을 촬영하기 위해 룸미러(310)의 앞면에 카메라(미도시)가 장착될 수 있고, 제 2 측을 촬영하기 위해 룸미러(310)의 뒷면에 카메라(320)가 장착될 수 있다. 또한, 제 2 측을 촬영하기 위한 카메라(330, 340)가 룸미러(310)의 상부에 장착될 수도 있다.
다시 도 2를 참조하면, 인식부(210)는 센서(40)로부터 수신되는 센싱 데이터를 분석하여 사용자의 눈(또는 동공)의 위치, 동공의 크기를 인식할 수 있다. 인식부(210)는 인식된 눈의 위치를 기초로 사용자의 시선 방향 및 시야를 결정할 수 있다. 인식부(210)는 동공의 크기를 통해 사용자에게 눈부심이 발생하였는지를 판단할 수 있다. 예를 들어, 인식부(210)는 일반적인 상황에서의 사용자의 동공의 크기 대비 소정 비율 이상 동공의 크기가 작아진 경우 사용자에게 눈부심이 발생한 것으로 판단할 수 있다. 사용자의 동공 크기를 트래킹(tracking)하는 기술은 관련 기술 분야에서 자명하게 이용되고 있으므로 상세한 설명은 생략한다.
또한, 인식부(210)는 센서(40)로부터 수신되는 센싱 데이터를 분석하여 투명 패널(20)의 제 2 측에 있는 오브젝트들의 종류, 오브젝트들의 위치, 광원의 종류, 광원으로부터 발생되는 광의 세기를 인식할 수 있다.
인식부(210)는 오브젝트들을 인식하기 위해 DNN(deep neural network)을 이용할 수 있다. DNN은 예를 들어, CNN(convolutional neural network)를 포함할 수 있다. CNN은 입력 이미지를 컨볼루션 처리하는 적어도 하나의 컨볼루션 레이어를 통해 입력 이미지에 포함된 오브젝트들을 인식할 수 있다. 오브젝트 인식을 위한 CNN은 인공 신경망 분야에서 널리 사용되고 있으므로 상세한 설명은 생략한다.
눈부심 예측부(230)는 인식부(210)에 의해 인식된 눈의 위치 및 광원의 위치에 기초하여 광원에 의한 사용자의 눈부심을 예측한다.
눈부심 예측부(230)는 인식부(210)에 의해 인식된 눈의 위치를 기준으로 사용자의 시선 방향 및 시야를 결정하고, 광원으로부터 발생되는 광이 사용자의 시야 내로 들어올 것인지를 미리 예측할 수 있다. 예를 들어, 눈부심 예측부(230)는 광원의 위치, 광원의 이동 속도, 광원의 이동 방향, 눈의 위치, 사용자의 이동 속도 및 사용자의 이동 방향을 고려하여, 미래에 사용자에게 눈부심이 발생할 것인지 여부를 예측할 수 있다. 또한, 눈부심 예측부(230)는 사용자에게 눈부심이 발생할 것으로 예상되는 시간을 예측할 수 있고, 예측된 시간에 맞춰 후술하는 패널 제어부(250)가 디밍 처리를 할 수 있다.
일 실시예에서, 눈부심 예측부(230)는 사용자의 눈부심 발생 여부를 미리 예측하기 위해 DNN을 이용할 수 있다. DNN은 사용자의 눈의 위치, 광원의 위치, 및 센서(40)로부터 수신되는 센싱 데이터를 기반으로 사용자에게 눈부심이 발생할지를 예측할 수 있다.
도 4는 눈부심 예측을 위한 DNN을 도시하는 예시적인 도면이다.
눈부심 예측을 위한 DNN은 FCL(fully connectec layer)(400)로 구현될 수 있다. FCL(400)은 적어도 하나의 노드를 갖는 레이어들을 포함한다. 어느 하나의 레이어에 포함된 노드 각각으로 입력된 데이터는 소정의 가중치에 따라 처리되어 다음 레이어의 노드로 전달된다. 어느 하나의 레이어에 포함된 노드 각각은 이전 레이어 또는 이후 레이어에 포함된 노드들 모두와 연결될 수 있다.
FCL(400)로 입력되는 정보들은, 사용자의 눈부심을 예측하기 위해 이용되는 정보들이다. 구체적으로, 사용자의 움직임(user's movement), 사용자의 시각 능력(user's visual ability), 눈의 위치(position of eye), 오브젝트의 위치(position of object), 광원의 위치(position of light source), 광의 세기(intensity of light) 및 날씨(weather)를 나타내는 정보가 FCL로 입력될 수 있다.
사용자의 움직임 정보는, 사용자 또는 사용자가 이용하는 투명 패널 기기의 현재 위치, 이동 방향 및 이동 속도 중 적어도 하나를 나타낸다.
사용자의 시각 능력 정보는, 사용자에게 눈부심을 야기하는 것으로 미리 결정된 광의 세기, 사용자에게 눈부심이 발생한 후 사용자가 오브젝트를 식별하는데 소요되는 시간 및 사용자에게 눈부심이 발생한 후 정상 시력으로 되돌아 오는데 소요되는 시간 중 적어도 하나를 나타낸다.
눈의 위치 정보, 오브젝트의 위치 정보, 광원의 위치 정보 각각은 눈, 오브젝트 및 광원의 좌표를 나타낸다. 눈의 좌표, 오브젝트의 좌표, 및 광원의 좌표는 센서(40)들의 로컬(local) 좌표계에서 결정될 수 있으므로, 인식부(210)는 통일된 좌표계의 원점을 기준으로 눈의 좌표, 오브젝트의 좌표 및 광원의 좌표를 변환할 수 있다. 일 예로, 인식부(210)는 눈의 좌표, 오브젝트의 좌표 및 광원의 좌표를 투명 패널(20) 상의 어느 한 점을 원점으로 하는 통일 좌표계의 좌표들로 변환할 수 있다.
광의 세기 정보는 광원으로부터 발산되는 광의 세기를 나타내며, 전술한 바와 같이, 포토 다이오드에 의해 측정될 수 있다.
날씨 정보는 투명 패널 기기가 위치하는 지역의 날씨를 나타내는데, 예를 들어, 흐림, 맑음, 비, 눈 등을 나타낼 수 있다.
도 4에 도시된 FCL(400)로 입력되는 정보의 종류는 하나의 예시일 뿐이며, 도 4에 도시된 정보 이외에 추가적인 정보, 예를 들어, 오브젝트들의 움직임 정보가 FCL(400)로 입력될 수 있고, 또는, 도 4에 도시된 정보 중 적어도 일부는 FCL(400)로 입력되지 않을 수 있다. 도 4에 도시된 FCL(400)은 눈부심 예측에 이용되는 DNN의 예시일 뿐, 눈부심 예측을 위한 DNN은 RNN (recurrent neural network), CNN 또는 LSTM (long short-term memory)으로 구현될 수도 있다.
눈부심 예측을 위한 DNN은 훈련의 결과로 최적화된 가중치에 따라 입력 값을 처리한다. 여기서, 가중치는 DNN을 이루는 레이어의 연산 과정에서 이용되는 값으로서, 입력 값을 소정 연산식에 적용할 때 이용된다. 예를 들어, FCL의 어느 하나의 노드로 입력된 값은 가중치 적용 후 다음 노드로 전달되고, CNN의 컨볼루션 레이어로 입력된 데이터는 필터 커널에 포함된 가중치에 따라 컨볼루션 연산된 후 다음 레이어로 전달된다. 즉, 눈부심 예측을 위한 DNN은 입력 값들을 미리 결정된 가중치로 처리하고, 최종 출력된 값에 기초하여 사용자에게 눈부심이 발생할 것인지, 발생하지 않을 것인지를 예측할 수 있는 것이다.
일 실시예에서, 눈부심 예측부(230)는 인식부(210)에 의해 인식된 광원의 개수가 복수 개일 때, 복수의 광원들 중 어느 광원에 의해 사용자의 눈부심이 발생할 것인지를 예측할 수 있다. 사용자의 눈부심을 야기하는 광원을 특정하는 이유는, 특정 광원에 대해서만 투명 패널(20)의 디밍 처리를 하기 위함이며, 사용자의 눈부심을 야기하지 않는 광원의 광은 안전상의 이유로 사용자의 눈에 그대로 입사되도록 하는 것이다.
일 실시예에서, 눈부심 예측부(230)는 인식부(210)에 의해 인식된 광원의 종류가 미리 결정된 종류에 해당한 경우에 사용자에게 눈부심을 야기할 것으로 예측할 수 있다. 이는, 사용자의 눈부심을 야기하는 광원이라도 안전상의 이유로 투명 패널(20)의 디밍 처리가 부적합한 상황을 고려한 것이다. 구체적으로, 눈부심 예측부(230)는 인식부(210)에 의해 인식된 광원의 종류가 태양, 창문, 자동차의 전조등, 바닥에 고인 물인 경우에는, 해당 광원으로부터 발산되는 광의 세기, 눈의 위치, 광원의 위치에 따라 사용자에게 눈부심이 발생할 것으로 예측할 수 있고, 반대로, 인식부(210)에 의해 인식된 광원의 종류가 태양, 창문, 자동차의 전조등, 바닥에 고인 물 이외에 자전거의 전조등, 보행자의 플래쉬 등인 경우에는 해당 광원의 광의 세기가 강하더라도 자전거, 보행자 등과의 충돌을 방지하기 위해 사용자에게 눈부심을 야기하지 않을 것이라고 결정할 수 있다.
다시 도 2를 보면, 패널 제어부(250)는 눈부심 예측부(230)의 눈부심 예측 결과, 및 인식부(210)에 의해 인식된 눈의 위치 및 광원의 위치에 기초하여, 투명 패널(20) 중 광원의 광이 입사되는 부분을 디밍(dimming) 처리한다. 패널 제어부(250)는 사용자에게 눈부심이 발생할 것으로 예측되면, 눈부심 발생 예정임을 알리는 정보 및/또는 광의 입사 방향을 알리는 정보를 포함하는 경고 메시지를 투명 패널(20) 상에 표시하거나, 스피커 등의 출력 수단을 통해 경고 메시지를 출력할 수 있다.
투명 패널(20)의 디밍 처리는, 투명 패널(20)의 일부분의 투명도를 감소시키거나, 투명 패널(20)의 일부분의 명도를 감소시키는 처리를 의미할 수 있다. 일 실시예에서, 디밍 처리는 사용자의 눈으로 입사되는 광의 세기를 감소시키기 위해 투명 패널(20)의 일부분의 색상을 변경하는 처리를 의미할 수도 있다.
일 실시예에서, 투명 패널(20)은 패널 제어부(250)의 제어에 따라 투명도, 명도 또는 색상을 변경하는 스마트 윈도우일 수 있다. 다른 실시예에서, 투명 패널(20)은 패널 제어부(250)의 제어에 따라 소정의 정보를 표시하는 HUD(head up display)일 수도 있다.
패널 제어부(250)는 투명 패널(20)의 디밍 처리를 위해, 인식부(210)에 의해 인식된 복수의 광원 중 사용자의 눈부심을 야기하는 광원의 광이 입사되는 투명 패널(20)의 일부 영역을 확인하고, 확인된 일부 영역만을 디밍 처리할 수 있다. 사용자의 눈부심을 야기하지 않는 광원의 광은 투명 패널(20) 중 디밍 처리되지 않은 영역을 통해 사용자의 눈으로 입사된다.
일 실시예에서, 패널 제어부(250)는 사용자의 시각 능력, 광원의 위치, 광의 세기 및 눈의 위치를 고려하여 디밍 처리 방식을 결정할 수 있다. 여기서, 디밍 처리 방식은 디밍 강도, 디밍 시간 및 디밍 위치를 포함할 수 있다.
디밍 강도는 투명 패널(20)의 투명도, 명도 또는 색상을 의미할 수 있다. 디밍 강도에 따라 광원으로부터 발산된 광의 세기의 감소율이 달라질 수 있다. 즉, 강한 세기의 디밍 강도에서는 낮은 투명도의 투명 패널(20)을 통해 광원으로부터 발산된 광의 세기가 크게 감소하고, 약한 세기의 디밍 강도에서는 상대적으로 높은 투명도의 투명 패널(20)을 통해 광의 세기가 적게 감소한다.
디밍 시간은 디밍 처리가 유지되는 시간 간격을 나타내고, 디밍 위치는 투명 패널(20) 중 디밍 처리가 적용될 위치를 나타낸다.
일 예에서, 패널 제어부(250)는 사용자의 눈부심을 야기하는 것으로 미리 결정된 광의 세기와, 인식부(210)에 의해 인식된 광의 세기를 비교하여 디밍 강도를 결정할 수 있다. 또한, 일 예에서, 패널 제어부(250)는 광원의 광이, 광원의 이동 및/또는 투명 패널 기기의 이동에 따라 사용자에게 눈부심을 야기한 후, 사용자의 시야를 벗어날 것으로 예상되는 시간 간격을 고려하여 디밍 시간을 결정할 수 있다.
일 실시예에서, 패널 제어부(250)는 DNN을 이용하여 디밍 처리 방식을 결정할 수 있다. DNN은 인식부(210)의 인식 결과를 입력받아 디밍 처리 방식을 출력할 수 있다.
도 5는 디밍 처리 방식의 결정을 위한 DNN을 도시하는 예시적인 도면이다.
도 5에 도시된 DNN은 FCL(500)로서, FCL(500)은 디밍 처리 방식을 결정하는데 이용되는 여러 정보들을 입력받는데, 구체적으로, 사용자의 시각 능력, 눈의 위치, 광원의 종류, 광원의 위치, 광의 세기, 날씨 및 시간을 나타내는 정보들이 FCL(500)로 입력될 수 있다.
사용자의 시각 능력 정보는, 사용자에게 눈부심을 야기하는 것으로 미리 결정된 광의 세기, 사용자에게 눈부심이 발생한 후 사용자가 오브젝트를 식별하는데 소요되는 시간 및 사용자에게 눈부심이 발생한 후 정상 시력으로 되돌아 오는데 소요되는 시간 중 적어도 하나를 나타낸다.
눈의 위치 정보, 광원의 위치 정보는 각각 눈 및 광원의 좌표를 나타낸다.
광원의 종류 정보는 광원이 무엇인지를 나타내는 정보로서, 예를 들어, 광원이 태양, 자동차의 전조등, 자전거의 전조등, 창문 또는 바닥에 고인 물인지를 나타낸다.
광의 세기 정보는 사용자의 시야로 들어오는 광의 세기를 나타낸다.
날씨 정보는 투명 패널 기기가 위치하는 지역에서의 날씨를 나타내는데, 예를 들어, 흐림, 맑음, 비, 눈 등을 나타낼 수 있다.
시간 정보는 현재 시간을 나타낼 수 있고, 또는 현재 시간이 오전 시간대인지, 오후 시간대인지, 저녁 시간대인지를 나타낼 수도 있다.
도 5에 도시된 FCL(500)로 입력되는 정보의 종류는 하나의 예시일 뿐이다. 도 5에 도시된 정보 이외에 추가적인 정보가 FCL(500)로 입력될 수 있고, 또는, 도 5에 도시된 정보 중 적어도 일부는 FCL(500)로 입력되지 않을 수 있다. 도 5에 도시된 FCL(500)은 디밍 처리 방식을 결정하는데 이용되는 DNN의 예시일 뿐이며, 디밍 처리 방식의 결정을 위한 DNN은 RNN, CNN 또는 LSTM으로 구현될 수도 있다.
도 6은 광원(31)에 의한 사용자(10)의 눈부심을 방지하기 위해 디밍 처리된 투명 패널(20)을 도시하는 도면이고, 도 7은 투명 패널(20)에서 디밍 위치를 결정하는 방법을 설명하기 위한 도면이다.
전술한 바와 같이, 패널 제어부(250)는 투명 패널(20) 중 광원(31)의 광이 입사되는 부분(25)을 디밍 처리함으로써, 사용자(10)의 눈으로 입사되는 광의 세기를 약화시킬 수 있다. 도 6에 도시된 바와 같이, 패널 제어부(250)는 사용자(10)의 눈부심을 야기하는 광이 입사될 것으로 예상되는 부분(25)만을 디밍 처리함으로써, 사용자(10)의 눈부심을 미리 방지하고, 사용자(10)가 광원(31) 이외의 다른 오브젝트들을 용이하게 식별할 수 있게 한다.
도 6은 투명 패널(20) 중 하나의 부분 영역(25)만이 디밍 처리된 것으로 도시하고 있지만, 사용자(10)의 눈부심을 야기할 것으로 예상되는 광원의 개수가 복수 개인 경우, 복수의 부분 영역들이 디밍 처리될 수 있다. 이때, 사용자(10)의 눈부심을 야기할 것으로 예상되는 복수의 광원 각각에 대한 디밍 처리 방식이 서로 독립적으로 결정될 수 있다.
패널 제어부(250)는 광원(31)의 위치 및 사용자(10)의 눈의 위치를 고려하여 디밍 위치를 결정할 수 있는데, 도 7에 도시된 바와 같이, 미리 결정된 원점(710)을 기준으로 하는 광원의 좌표(a,b,c)와 눈의 좌표(l,m,n)를 연결한 선분 중 투명 패널(20)과 만나는 지점(x,y,z)을 디밍 위치(740)로 결정할 수 있다. 그리고, 패널 제어부(250)는 결정된 디밍 위치(740)를 기준으로 소정 넓이의 영역을 디밍 처리할 수 있다.
도 8은 광원(31)이 오브젝트(810)에 의해 오클루젼되었을 때의 눈부심 예측 과정 및 디밍 처리 과정을 설명하기 위한 도면이다.
전술한 바와 같이, 눈부심 예측부(230)는 인식부(210)에 의해 인식된 광원(31)의 위치 및 눈의 위치에 기반하여 사용자(10)에게 눈부심이 발생할 것인지 여부를 미리 예측한다. 일 실시예에서, 눈부심 예측부(230)는 광원(31)이 다른 오브젝트(810)에 의해 오클루젼(occlusion)된 경우라도, 광원(31) 및/또는 투명 패널 기기가 이동함에 따라 광원(31)의 오클루젼이 해제될 것으로 예상되면, 사용자(10)에게 눈부심이 발생할 것으로 예측할 수도 있다.
도 8의 상부에 도시된 바와 같이, 투명 패널(20)을 기준으로 사용자(10)의 반대편에 광원이 존재하지 않는 경우에는 광원의 인식이 불가능하므로, 눈부심 예측부(230)가 사용자(10)의 눈부심 발생 가능성이 없다고 예측할 수 있다. 눈부심 발생 가능성이 없는 것으로 예측된 후, 사용자(10)에게 예기치 않은 눈부심이 발생하면 사용자(10)에게 미치는 악영향이 더 클 수 있다. 이러한 예기치 않은 눈부심을 방지하기 위해, 일 실시예에서, 눈부심 예측부(230)는 이전에 인식된 광원(31)이 현재 다른 오브젝트(810)에 의해 오클루젼되어 있고(도 8의 상부 도면 참조), 광원(31) 및/또는 투명 패널 기기가 이동함에 따라 광원(31)의 오클루젼이 해제되어 광원(31)의 광이 사용자(10)의 눈으로 입사될 것으로 예상되면, 사용자(10)의 눈부심이 발생할 것으로 미리 예측할 수 있다.
도 8의 상부에 도시된 바와 같이, 이전에 인식된 광원(31)이 현재 다른 오브젝트(810)에 의해 오클루젼되어 있는 상태에서 눈부심 예측부(230)가 사용자(10)의 눈부심이 있을 것으로 예측한 경우, 패널 제어부(250)는 투명 패널(20) 상에 경고 메시지(820)를 표시하고, 도 8의 하부에 도시된 바와 같이, 투명 패널(20) 중 일부분(25)을 디밍 처리할 수 있다. 투명 패널(20) 상에 표시된 경고 메시지(820)는 하나의 예시일 뿐이며, 패널 제어부(250)는 스피커 등의 출력 수단을 통해 경고 메시지를 출력할 수 있다.
한편, 패널 제어부(250)가 광원에 대응하여 투명 패널(20)의 일부분을 디밍 처리한 경우, 사용자가 디밍 처리된 부분에 의해 가려지는 오브젝트를 명확히 식별하지 못할 수 있다. 따라서, 디밍 처리된 부분에 의해 가려지는 오브젝트에 대한 정보를 사용자에게 알리는 것이 필요하다.
도 9는 디밍 영역(25)에 의해 가려지는 오브젝트(900)를 설명하기 위한 도면이고, 도 10은 투명 패널(20)의 디밍 영역(25) 상에 표시되는 오브젝트 정보(1000)를 도시하는 도면이다.
도 9에 도시된 바와 같이, 사용자(10)의 시야(11)에서 디밍 영역(25)에 의해 가려지는 오브젝트(900)가 존재할 수 있다. 자전거, 보행자 등은 충돌 시 큰 피해가 발생하므로, 투명 패널(20)을 디밍 처리하여 오브젝트의 식별 가능성을 낮추는 것이 오히려 더 큰 위험을 야기할 수 있다. 따라서, 일 실시예에서, 패널 제어부(250)는 광원(31)에 의한 사용자(10)의 눈부심을 방지하기 위해 투명 패널(20) 중 일부분(25)을 디밍 처리하되, 디밍 영역(25)에 의해 가려지는 오브젝트(900)의 정보를 디밍 영역(25) 상에 표시할 수 있다.
도 10에 도시된 바와 같이, 패널 제어부(250)는 디밍 영역(25)에 의해 가려지는 오브젝트가 자전거인 경우, 자전거의 실루엣, 자전거의 이미지 등을 디밍 영역(25)에 표시할 수 있다. 일 실시예에서, 패널 제어부(250)는 디밍 영역(25)에 의해 가려지는 오브젝트가 자전거이며, 사용자(10)와 자전거 사이의 거리가 어느 정도인지를 나타내는 정보를 디밍 영역(25) 상에 표시하거나, 스피커 등의 출력 수단을 통해 출력할 수도 있다. 사용자(10)는 디밍 영역(25) 상에 표시되는 오브젝트 정보(1000)를 통해 미리 위험을 감지할 수 있다.
한편, 눈부심 예측부(230)의 예측 결과 및/또는 패널 제어부(250)의 디밍 처리 방식의 결정 결과가 정확하지 않는 경우, 사용자에게 눈부심이 발생할 가능성이 있다. 사용자에게 눈부심이 발생하였으면, 사용자가 오브젝트를 식별하기 어려워지므로, 눈부심에 따른 악영향을 최소화하는 방안이 요구된다.
전술한 바와 같이, 인식부(210)는 사용자의 동공의 크기를 측정하여 사용자에게 눈부심이 발생하였는지를 식별할 수 있다. 예를 들어, 인식부(210)는 연속하여 사용자의 동공의 크기를 측정하는 동안, 이전에 측정된 동공의 크기 대비 현재 측정된 동공의 크기가 소정 비율 이상 작다면, 사용자에게 눈부심이 발생한 것으로 결정할 수 있다.
도 11은 광원에 의한 눈부심과 관련된 사용자의 동공의 크기를 나타내는 그래프이다.
사용자에게 눈부심이 발생하는 경우를 가정하였을 때, 사용자의 동공 크기와 관련된 3개의 기간들이 존재한다.
A 기간은 사용자의 눈부심이 발생하기 이전의 기간을 나타낸다. A 기간 동안에는 전술한 눈부심 예측부(230)의 눈부심 예측 프로세스와 패널 제어부(250)의 디밍 처리 프로세스가 수행된다.
B 기간은 사용자에게 눈부심이 발생한 기간을 나타낸다. B 기간에서 사용자의 동공의 크기가 급격히 감소된 것을 알 수 있다. B 기간 동안에 사용자는 오브젝트를 식별하기 어려워지고, 다른 오브젝트와의 충돌 가능성이 높아진다.
C 기간은 사용자가 눈으로 입사되는 광에 적응한 기간을 나타낸다. C 기간 동안 사용자의 동공의 크기가 축소된 상태로 유지된다.
A 기간 동안에는 눈부심 예측 및 디밍 처리로 사용자의 눈부심을 방지할 수 있지만, 사용자의 눈부심이 이미 발생한 B 기간, 및 사용자가 광에 적응한 C 기간 동안에 광에 의한 악영향을 최소화하는 것이 필요하다.
도 12는 사용자에게 눈부심이 발생한 경우의 디밍 처리 과정을 나타내는 도면이다.
도 12의 상부에 도시된 바와 같이, 인식부(210)가 사용자에게 눈부심이 발생한 것으로 결정하면, 패널 제어부(250)는 투명 패널(20)의 전체 영역(1210) 또는 투명 패널(20)의 전체 영역(1210) 중 미리 결정된 일부 영역을 디밍 처리할 수 있다.
투명 패널(20)의 전체 영역(1210) 또는 미리 결정된 일부 영역이 디밍 처리된 경우, 사용자에 의한 오브젝트 식별이 어려울 수 있으므로, 패널 제어부(250)는 전방에 있는 오브젝트의 정보(1200)를 투명 패널(20) 상에 표시할 수 있다. 예를 들어, 패널 제어부(250)는 전방에 있는 오브젝트의 이미지, 오브젝트의 실루엣을 투명 패널(20) 상에 표시할 수 있다. 다른 예로, 패널 제어부(250)는 전방에 있는 오브젝트의 종류 및 사용자와 오브젝트 사이의 거리를 투명 패널(20) 상에 표시할 수도 있다. 패널 제어부(250)는 투명 패널(20) 상에 표시되는 오브젝트 정보(1200)의 크기, 색상, 위치를 사용자의 눈으로 입사되는 광의 세기, 날씨, 사용자의 시각 능력 등에 따라 조절할 수도 있다.
사용자에게 눈부심이 발생한 경우, 다시 말하면, 도 11의 B 기간 동안에 패널 제어부(250)는 투명 패널(20)의 전체 영역(1210) 또는 미리 결정된 일부 영역을 디밍 처리할 수 있는데, 이 때, 패널 제어부(250)는 사용자의 시각 능력을 고려하여 디밍 시간 및 디밍 강도를 결정할 수 있다. 예를 들면, 패널 제어부(250)는 사용자의 동공 크기의 감소 비율이 클수록 디밍 강도를 강하게 하고, 반대로, 사용자의 동공 크기의 감소 비율이 작을수록 디밍 강도를 약하게 할 수 있다. 또한, 패널 제어부(250)는 사용자가 눈부심에 적응하는데 소요되는 시간을 고려하여, 디밍 시간을 결정할 수 있다.
사용자가 눈부심에 적응한 이후, 즉, 도 11의 C 기간 동안 패널 제어부(250)는, 도 12의 하부에 도시된 바와 같이, 투명 패널(20)의 디밍 강도를 감소시킴으로써 사용자가 오브젝트를 보다 잘 식별할 수 있게 한다. 디밍 강도가 감소되더라도 여전히 디밍 처리가 되어 있는 상태이므로, 구현예에 따라, 패널 제어부(250)는 전방에 위치하는 오브젝트의 정보를 투명 패널(20) 상에 표시할 수 있다.
A 기간 동안 눈부심 예측부(230) 및 패널 제어부(250)의 동작하에 사용자의 눈부심이 미리 방지될 수 있음에도 사용자에게 눈부심이 발생하였다는 것은 눈부심 예측부(230)의 눈부심 예측 결과 또는 패널 제어부(250)의 디밍 처리 방식의 결정 결과의 정확도가 낮다는 것을 의미하므로, 눈부심 예측부(230) 또는 패널 제어부(250)는 눈부심 예측을 위한 DNN의 가중치 또는 디밍 처리 방식의 결정을 위한 DNN의 가중치를 갱신할 수 있다. 이에 대해서는 도 13을 참조하여 설명한다.
도 13은 사용자에게 눈부심이 발생한 경우 DNN의 가중치를 갱신하는 과정을 설명하기 위한 도면이다.
일 실시예에서, 눈부심 예측부(230)가 사용자에게 눈부심이 발생하지 않을 것으로 예측하였으나, 사용자의 눈부심이 발생한 경우, 인식부(210)는 사용자에게 눈부심이 발생하였다는 정보를 눈부심 예측부(230)의 DNN(400)으로 전달하고, DNN(400)은 인식부(210)로부터 수신된 정보에 따라 입력 값을 처리하는데 이용되는 가중치를 갱신한다. 다시 말하면, DNN(400)은 입력 정보를 미리 결정된 가중치로 처리하여 사용자에게 눈부심이 발생하지 않을 것으로 잘못 예측하였으므로, 입력 정보를 처리하였을 때 사용자에게 눈부심이 발생할 것으로 예측하는 방향으로 가중치를 갱신할 수 있다.
일 실시예에서, 눈부심 예측부(230)가 사용자에게 눈부심이 발생할 것으로 예측하였고, 패널 제어부(250)가 그에 따라 디밍 처리를 하였으나, 사용자에게 눈부심이 발생한 경우, 인식부(210)는 사용자에게 눈부심이 발생하였다는 정보를 패널 제어부(250)의 DNN(500)으로 전달하고, DNN(500)은 인식부(210)로부터 수신된 정보에 따라 입력 값을 처리하는데 이용되는 가중치를 갱신한다. 다시 말하면, DNN(500)은 입력 정보를 미리 결정된 가중치로 처리하여 디밍 처리 방식을 결정하였으나 사용자에게 눈부심이 발생하였으므로, 입력 정보를 처리하였을 때 디밍 강도, 디밍 위치 및 디밍 시간 중 적어도 하나가 변화되도록 가중치를 갱신할 수 있다.
일 실시예에서, 인식부(210)가 투명 패널(20)을 기준으로 사용자의 반대편에 있는 광원을 인식하지 못하였으나, 사용자에게 눈부심이 발생한 경우, 인식부(210)는 사용자에게 눈부심이 발생하였다는 정보를 오브젝트 식별을 위한 DNN(미도시)으로 전달하고, 오브젝트 식별을 위한 DNN은 입력 값을 처리하는데 이용되는 가중치를 갱신한다. 다시 말하면, 오브젝트 식별을 위한 DNN은 센싱 데이터로부터 오브젝트들 중에 광원이 존재하지 않는 것으로 판단하였으나, 사용자에게 눈부심이 발생하였으므로, 입력 정보를 처리하였을 때 광원의 식별이 이루어지도록 가중치를 갱신할 수 있다.
도 14는 일 실시예에 따른 투명 패널(20)의 제어 방법을 나타내는 순서도이다.
S1410 단계에서, 제어 장치(200)는 사용자의 눈의 위치를 인식한다. 제어 장치(200)는 사용자의 동공의 위치를 인식할 수 있다. 제어 장치(200)는 투명 패널(20)을 기준으로 사용자가 있는 제 1 측을 센싱하는 센서(40)의 센싱 데이터에 기초하여 사용자의 눈의 위치를 인식할 수 있다.
일 실시예에서, 사용자의 눈의 위치는 센서(40)의 로컬 좌표계에서 산출된 것이므로, 제어 장치(200)는 눈의 좌표를 미리 결정된 공통 좌표계에서의 좌표로 변환할 수 있다.
S1420 단계에서, 제어 장치(200)는 광원의 위치를 인식한다. 제어 장치(200)는 투명 패널(20)을 기준으로 제 2 측을 센싱하는 센서(40)의 센싱 데이터에 기초하여 오브젝트들을 인식할 수 있다. 오브젝트들 중에 광원이 포함되므로, 제어 장치(200)는 오브젝트들의 종류들을 식별하여, 광원에 해당하는 오브젝트를 선택하고, 선택된 광원의 위치를 식별할 수 있다.
일 실시예에서, 오브젝트의 위치는 센서(40)의 로컬 좌표계에서 산출된 것이므로, 제어 장치(200)는 오브젝트의 좌표를 미리 결정된 공통 좌표계에서의 좌표로 변환할 수 있다.
S1430 단계에서, 제어 장치(200)는 광원에 의한 사용자의 눈부심을 예측한다. 제어 장치(200)는 광원 및/또는 사용자가 이동함에 따라 광원의 광이 사용자의 시야로 들어올 것으로 예상되면, 사용자에게 눈부심이 발생할 것으로 예측할 수 있다.
일 실시예에서, 제어 장치(200)는 사용자의 눈부심을 예측하는데 DNN을 이용할 수 있다. DNN은 훈련의 결과로 미리 세팅된 가중치에 따라 입력 정보들을 처리하고, 사용자에게 눈부심이 발생할지, 발생하지 않을지를 나타내는 출력 값을 출력할 수 있다.
S1440 단계에서, 제어 장치(200)는 사용자의 눈부심이 예상되면, 투명 패널(20) 중 광원의 광이 입사되는 부분을 디밍 처리한다.
제어 장치(200)는 디밍 처리 전에 사용자의 시각 능력, 광의 세기 등을 고려하여 디밍 처리 방식을 결정할 수 있다. 디밍 처리 방식은 디밍 위치, 디밍 강도 및 디밍 시간 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 제어 장치(200)는 디밍 처리 방식을 결정하기 위해 DNN을 이용할 수 있다. DNN은 훈련의 결과로 미리 세팅된 가중치에 따라 입력 정보들을 처리하고, 디밍 위치, 디밍 강도 및 디밍 시간 중 적어도 하나를 나타내는 출력 값을 출력할 수 있다.
일 실시예에서, 제어 장치(200)는 사용자의 시야에서 디밍 영역에 의해 가려지는 오브젝트의 정보를 디밍 영역상에 표시함으로써 사용자가 오브젝트를 보다 쉽게 식별할 수 있게 할 수 있다.
또한, 일 실시예에서, 제어 장치(200)는 사용자의 동공 크기를 측정하여 사용자에게 눈부심이 발생하였는지를 판단할 수 있다. 사용자에게 눈부심이 발생한 경우, 제어 장치(200)는 투명 패널(20)의 전체 영역 또는 미리 결정된 일부 영역을 디밍 처리하고, 구현예에 따라 전방에 위치하는 오브젝트의 정보를 디밍 영역 상에 표시할 수 있다. 또한, 사용자가 눈으로 입사되는 광에 적응한 이후에는, 제어 장치(200)는 디밍 영역의 디밍 강도를 감소시킴으로써, 사용자가 오브젝트를 보다 명확하게 식별하게 할 수 있다.
또한, 일 실시예에서, 제어 장치(200)는 동공 크기 측정을 통해 사용자에게 눈부심이 발생한 것으로 판단되면, 이를 나타내는 정보를 눈부심 예측을 위한 DNN 또는 디밍 방식 결정을 위한 DNN으로 역전사(back propagation)하여 눈부심 예측을 위한 DNN 또는 디밍 방식 결정을 위한 DNN의 가중치가 갱신되도록 할 수 있다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 작성된 프로그램은 매체에 저장될 수 있다.
매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상, 본 개시의 기술적 사상을 바람직한 실시예를 들어 상세하게 설명하였으나, 본 개시의 기술적 사상은 상기 실시예들에 한정되지 않고, 본 개시의 기술적 사상의 범위 내에서 당 분야에서 통상의 지식을 가진 자에 의하여 여러 가지 변형 및 변경이 가능하다.
20: 투명 패널
200: 제어 장치
210: 인식부
230: 눈부심 예측부
250: 패널 제어부

Claims (20)

  1. 투명 패널을 기준으로 제 1 측에 있는 사용자의 눈의 위치와 제 2 측에 있는 광원의 위치를 인식하는 단계;
    상기 인식된 눈의 위치와 광원의 위치에 기초하여 상기 광원에 의한 사용자의 눈부심을 예측하는 단계; 및
    상기 사용자의 눈부심이 발생할 것으로 예측된 경우, 상기 투명 패널 중 상기 광원의 광이 입사되는 부분을 디밍(dimming) 처리하는 단계를 포함하는, 투명 패널의 제어 방법.
  2. 제1항에 있어서,
    상기 사용자의 눈부심을 예측하는 단계는,
    DNN(deep neural network) 기반으로 상기 사용자의 눈부심을 예측하는 단계를 포함하고,
    상기 DNN은, 상기 광원의 위치, 상기 광원으로부터 발생하는 광의 세기, 상기 눈의 위치, 및 상기 사용자의 시각 능력 정보를 입력받아 상기 눈부심의 발생 여부를 예측하는, 투명 패널의 제어 방법.
  3. 제1항에 있어서,
    상기 인식하는 단계는,
    상기 광원으로부터 발생하는 광의 세기를 인식하는 단계를 포함하고,
    상기 디밍 처리하는 단계는,
    상기 광의 세기에 따라 상기 디밍 강도를 조절하는 단계를 포함하는, 투명 패널의 제어 방법.
  4. 제1항에 있어서,
    상기 사용자의 눈부심을 예측하는 단계는,
    광원이 오브젝트에 의해 오클루젼(occlusion)된 상태에서, 상기 사용자가 이동함에 따라 상기 광원의 오클루젼이 해제될 것으로 예측되면, 상기 사용자의 눈부심이 있을 것으로 예측하는 단계를 포함하는, 투명 패널의 제어 방법.
  5. 제1항에 있어서,
    상기 인식하는 단계는,
    상기 제 2 측에 있는 광원의 종류를 인식하는 단계를 포함하고,
    상기 사용자의 눈부심을 예측하는 단계는,
    상기 인식된 광원의 종류가 미리 결정된 종류에 해당하면, 상기 사용자의 눈부심이 발생할 것으로 예측하는 단계를 포함하는, 투명 패널의 제어 방법.
  6. 제1항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 눈부심이 발생한 경우, 상기 제 2 측에 있는 오브젝트의 정보를 상기 투명 패널상에 표시하는 단계를 더 포함하는, 투명 패널의 제어 방법.
  7. 제6항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 눈의 동공 크기의 측정 결과에 따라 상기 사용자에게 눈부심이 발생하였는지 여부를 판단하는 단계를 더 포함하는, 투명 패널의 제어 방법.
  8. 제6항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 눈부심이 발생한 경우, 상기 사용자의 눈부심을 예측하는 DNN 또는 상기 디밍 처리 방식을 결정하는 DNN의 가중치를 갱신하는 단계를 더 포함하는, 투명 패널의 제어 방법.
  9. 제6항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 눈부심이 발생한 경우, 상기 투명 패널의 미리 결정된 영역을 디밍 처리하는 단계를 더 포함하는, 투명 패널의 제어 방법.
  10. 제9항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 눈부심이 발생함에 따라 상기 미리 결정된 영역을 디밍 처리한 후, 상기 디밍의 강도를 감소시키는 단계를 더 포함하는, 투명 패널의 제어 방법.
  11. 제1항에 있어서,
    상기 투명 패널의 제어 방법은,
    상기 사용자의 시야에서 상기 디밍 처리된 부분에 의해 가려지는 오브젝트의 정보를 상기 디밍 처리된 부분에 표시하는 단계를 더 포함하는, 투명 패널의 제어 방법.
  12. 제1항의 투명 패널의 제어 방법을 실행하기 위한 프로그램을 저장하는 컴퓨터로 읽을 수 있는 매체.
  13. 투명 패널을 기준으로 제 1 측에 있는 사용자의 눈의 위치와 제 2 측에 있는 광원의 위치를 인식하는 인식부;
    상기 인식된 눈의 위치와 상기 광원의 위치에 기초하여 상기 광원에 의한 사용자의 눈부심을 예측하는 눈부심 예측부; 및
    상기 사용자의 눈부심이 발생할 것으로 예측된 경우, 상기 투명 패널 중 상기 광원의 광이 입사되는 부분을 디밍(dimming) 처리하는 패널 제어부를 포함하는, 투명 패널의 제어 장치.
  14. 제13항에 있어서,
    상기 눈부심 예측부는,
    DNN 기반으로 상기 사용자의 눈부심을 예측하고,
    상기 DNN은, 상기 광원의 위치, 상기 광원으로부터 발생하는 광의 세기, 상기 눈의 위치, 및 상기 사용자의 시각 능력 정보를 입력받아 상기 눈부심의 발생 여부를 예측하는, 투명 패널의 제어 장치.
  15. 제13항에 있어서,
    상기 인식부는,
    상기 광원으로부터 발생하는 광의 세기를 인식하고,
    상기 패널 제어부는,
    상기 광의 세기에 따라 상기 디밍 강도를 조절하는, 투명 패널의 제어 장치.
  16. 제13항에 있어서,
    상기 패널 제어부는,
    상기 사용자의 눈부심이 발생한 경우, 상기 제 2 측에 있는 오브젝트의 정보를 상기 투명 패널상에 표시하는, 투명 패널의 제어 장치.
  17. 제16항에 있어서,
    상기 사용자의 눈부심이 발생한 경우, 상기 사용자의 눈부심을 예측하는 DNN 또는 상기 디밍 처리 방식을 결정하는 DNN의 가중치가 갱신되는, 투명 패널의 제어 장치.
  18. 제16항에 있어서,
    상기 패널 제어부는,
    상기 사용자의 눈부심이 발생한 경우, 상기 투명 패널의 미리 결정된 영역을 디밍 처리하는, 투명 패널의 제어 장치.
  19. 제18항에 있어서,
    상기 패널 제어부는,
    상기 사용자의 눈부심이 발생함에 따라 상기 미리 결정된 영역을 디밍 처리한 후, 상기 디밍의 강도를 감소시키는, 투명 패널의 제어 장치.
  20. 제13항에 있어서,
    상기 패널 제어부는,
    상기 사용자의 시야에서 상기 디밍 처리된 부분에 의해 가려지는 오브젝트의 정보를 상기 디밍 처리된 부분에 표시하는, 투명 패널의 제어 장치.
KR1020200017708A 2020-02-13 2020-02-13 투명 패널을 제어하기 위한 장치 및 방법 KR20210103616A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200017708A KR20210103616A (ko) 2020-02-13 2020-02-13 투명 패널을 제어하기 위한 장치 및 방법
PCT/KR2021/001871 WO2021162499A1 (ko) 2020-02-13 2021-02-15 투명 패널을 제어하기 위한 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200017708A KR20210103616A (ko) 2020-02-13 2020-02-13 투명 패널을 제어하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20210103616A true KR20210103616A (ko) 2021-08-24

Family

ID=77292448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200017708A KR20210103616A (ko) 2020-02-13 2020-02-13 투명 패널을 제어하기 위한 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20210103616A (ko)
WO (1) WO2021162499A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4533762B2 (ja) * 2005-01-19 2010-09-01 日立オートモティブシステムズ株式会社 可変透過率ウィンドウシステム
KR101746812B1 (ko) * 2015-04-20 2017-06-15 동국대학교 산학협력단 눈부심 방지 장치 및 방법
US10192125B2 (en) * 2016-10-20 2019-01-29 Ford Global Technologies, Llc Vehicle-window-transmittance-control apparatus and method
KR20180060788A (ko) * 2016-11-29 2018-06-07 삼성전자주식회사 눈부심 방지 장치 및 방법
KR20190104922A (ko) * 2019-08-21 2019-09-11 엘지전자 주식회사 자율주행 차량의 제어 방법

Also Published As

Publication number Publication date
WO2021162499A1 (ko) 2021-08-19

Similar Documents

Publication Publication Date Title
US20060158715A1 (en) Variable transmissivity window system
US7319805B2 (en) Active night vision image intensity balancing system
JP5207146B2 (ja) 遠距離灯の自動制御方法
US10600345B2 (en) Luminance adjustment system, display system, moving body, and luminance adjustment method
US11400862B2 (en) Vision-based interactive control apparatus and method of controlling rear-view mirror for vehicle
US20180126907A1 (en) Camera-based system for reducing reflectivity of a reflective surface
US20210300428A1 (en) Driver dazzle mitigation systems and methods
CN111506057A (zh) 辅助自动驾驶的自动驾驶辅助眼镜
US11772545B2 (en) Apparatus, system and method for controlling lighting using gated imaging
WO2014195821A1 (en) A light monitoring system, a glare prevention system, a vehicle and a method of monitoring glare
KR20210103616A (ko) 투명 패널을 제어하기 위한 장치 및 방법
KR102146837B1 (ko) 이미지 통합 장치 및 이를 포함하는 운전 보조 시스템
US20220194296A1 (en) Vehicle systems and methods for assistance drivers to reduce reflective light interference from rear sides
EP3887204B1 (en) System for rearview camera as a glare sensor
KR20180132279A (ko) 조향 정보를 이용한 배광 제어 장치 및 방법
US20210256278A1 (en) Method for Detecting Light Conditions in a Vehicle
US9937863B2 (en) Forward viewing camera configured to control outside electro-optic mirror
JP7145792B2 (ja) 見落し検知装置、見落し検知方法、およびプログラム
US20230311897A1 (en) Automotive sensing system and gating camera
JP7408478B2 (ja) 後方確認支援システム
KR102527043B1 (ko) Hud 제어 시스템 및 그 방법
KR102527044B1 (ko) Hud 제어 시스템 및 그 방법
WO2024042762A1 (ja) ヘッドアップディスプレイ装置および映像データの処理方法
JP2010264856A (ja) 画像処理装置
JP2024050167A (ja) ヘッドアップディスプレイ装置および映像データの処理方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right