KR102542977B1 - Device and method for evaluation of sign visibility based on mr simulation - Google Patents
Device and method for evaluation of sign visibility based on mr simulation Download PDFInfo
- Publication number
- KR102542977B1 KR102542977B1 KR1020210182072A KR20210182072A KR102542977B1 KR 102542977 B1 KR102542977 B1 KR 102542977B1 KR 1020210182072 A KR1020210182072 A KR 1020210182072A KR 20210182072 A KR20210182072 A KR 20210182072A KR 102542977 B1 KR102542977 B1 KR 102542977B1
- Authority
- KR
- South Korea
- Prior art keywords
- test
- gaze
- visibility
- entropy
- sign
- Prior art date
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims description 14
- 238000011156 evaluation Methods 0.000 title description 5
- 238000012360 testing method Methods 0.000 claims abstract description 116
- 230000007704 transition Effects 0.000 claims description 9
- 230000004434 saccadic eye movement Effects 0.000 claims description 5
- 210000001747 pupil Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 240000000015 Iris germanica Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Architecture (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
MR 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법에 연관되며, 보다 구체적으로는 MR 시뮬레이션을 통해 표지판의 시선 추적 데이터를 획득하여 표지판 시인성을 평가하는 전자 장치에 연관된다.It relates to an apparatus and method for evaluating sign visibility based on MR simulation, and more specifically, to an electronic device that evaluates sign visibility by acquiring eye tracking data of a sign through MR simulation.
혼합 현실(Mixed Reality, MR)이란 현실 세계와 가상세계 정보를 결합하여 두 세계를 융합시키는 공간을 만들어내는 기술로, 증강현실(AR)과 가상현실(VR)의 장점을 통합한 것이다. 혼합 현실은 증강현실을 개선한 것으로, 증강현실은 사용자가 눈으로 보는 실제 세계와 부가 정보를 갖는 가상 세계를 중첩(overlay)하여 하나의 영상으로 보여주는 기술이다.Mixed Reality (MR) is a technology that combines the information of the real world and the virtual world to create a space that fuses the two worlds, integrating the advantages of augmented reality (AR) and virtual reality (VR). Mixed reality is an improvement of augmented reality, and augmented reality is a technology that overlays a real world that a user sees with eyes and a virtual world having additional information to show as a single image.
가상 현실 디스플레이를 위한 헤드 마운티드 디스플레이(Head Mounted Display, HMD)는 사용자의 머리 부분에 착용하고 사용자의 눈에 직접 3D 영상을 디스플레이함으로써 가상 현실 영상을 제공하는 수단이다.A head mounted display (HMD) for a virtual reality display is a means for providing a virtual reality image by being worn on a user's head and displaying a 3D image directly to the user's eyes.
실시 예들에 따르면, 다양한 종류의 표지판 디자인에 대한 시인성 평가를 위한 MR 기반 테스트 시뮬레이션을 생성하는 전자 장치가 제공될 수 있다.According to embodiments, an electronic device for generating MR-based test simulation for visibility evaluation of various types of sign designs may be provided.
실시 예들에 따르면, MR 기반 테스트 시뮬레이션을 재생하는 동안 사용자의 시선 데이터를 수집하여 시선 엔트로피 값을 계산하여 다양한 종류의 표지판 디자인에 대한 시인성 정도를 비교하는 전자 장치가 제공될 수 있다.According to embodiments, an electronic device may be provided that collects gaze data of a user while reproducing an MR-based test simulation, calculates a gaze entropy value, and compares visibility of various types of sign designs.
실시 예의 일 측면에 따른 전자 장치는, 디스플레이, 안구 추적 센서, 명령어들(instructions)을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 제1 경로를 따라 이동하면서 촬영한 동영상의 제1 위치에 적어도 두 개의 테스트 표지판을 정합한 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하고, 상기 디스플레이를 통해 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 재생하는 동안, 상기 안구 추적 센서를 통해 사용자의 각각의 시선 데이터를 획득하고, 상기 각각의 시선 데이터에 기반하여 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교할 수 있다.An electronic device according to an aspect of an embodiment includes a display, an eye tracking sensor, a memory for storing instructions, and at least one processor, wherein the at least one processor takes pictures while moving along a first path. At least two visibility test simulations matching at least two test signs to a first position of a video are generated, and while the at least two visibility test simulations are reproduced through the display, the user's respective user information is displayed through the eye tracking sensor. Obtain gaze data of , and compare visibility parameters for the at least two test signs based on each gaze data.
실시 예의 다른 일 측면에 따른 MR 시뮬레이션 기반 표지판 시인성을 평가하는 방법은, 복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 단계, 상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계, 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 단계, 상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 단계, 및 상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 단계를 포함할 수 있다.A method for evaluating sign visibility based on MR simulation according to another aspect of an embodiment includes selecting a first base scene photographed by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes. generating at least two visibility test simulations by matching at least two test signs with the first base scene, respectively, acquiring gaze data of the user while reproducing the at least two visibility test simulations, respectively; The method may include comparing visibility parameters of the at least two test signs based on the gaze data, and selecting a sign having the highest visibility among the at least two test signs.
실시 예의 또 다른 일 측면에 따른 컴퓨터 판독 가능한 명령어들을 저장하는 기록 매체에 있어서, 상기 명령어들은 전자 장치에 의해 실행 시 상기 전자 장치로 하여금: 복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 동작, 상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 동작, 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 동작, 상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 동작, 및 상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 동작을 포함할 수 있다.A recording medium storing computer readable instructions according to another aspect of the embodiment, wherein the instructions, when executed by an electronic device, cause the electronic device to perform: a first command according to a test situation among a plurality of base scenes; Selecting a first base scene photographed by a camera for a predetermined time along a route, matching at least two test signs to the first base scene, and generating at least two visibility test simulations. Obtaining each user's gaze data while reproducing each visibility test simulation, comparing visibility parameters of the at least two test signs based on the respective gaze data, and performing the operation of comparing the visibility parameters of the at least two test signs. An operation of selecting a sign with the highest visibility among them may be included.
전술한 것 외의 다른 측면, 특징, 및 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
실시 예들에 따르면, 기존의 다양한 종류의 표지판 디자인에 대한 시인성을 평가하기 위해 실물 표지판을 제작하거나, 기존 표지판을 제거하고 테스트 표지판을 설치하여 보행자로 하여금 시인성 여부를 주관적으로 판단하지 않는 대신에, 사용자가 헤드 마운티드 디스플레이를 통해 MR 기반 시인성 테스트 시뮬레이션을 시청하는 동안 사용자 시선에 대한 데이터를 획득하여 시인성 정도를 객관적으로 판단할 수 있다.According to the embodiments, in order to evaluate the visibility of various types of existing sign designs, actual signs are produced, or existing signs are removed and test signs are installed so that pedestrians do not subjectively judge visibility. While viewing the MR-based visibility test simulation through the head-mounted display, data on the user's gaze may be acquired to objectively determine the degree of visibility.
실시 예들에 따르면, 복수 개의 테스트 표지판에 대해서, 간단한 시뮬레이션을 통해 객관적인 지표로 산출될 수 있는 시인성 파라미터 값을 비교함으로써 가장 시인성이 높은 테스트 표지판을 제공할 수 있다.According to embodiments, a test sign having the highest visibility may be provided by comparing visibility parameter values that may be calculated as objective indicators through a simple simulation with respect to a plurality of test signs.
도 1은 일 실시 예에 따른 전자 장치의 블록도를 도시한다.
도 2는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 개념도를 도시한다.
도 3은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 생성하는 방법의 순서도를 도시한다.
도 4는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 구성요소를 도시한다.
도 5는 일 실시 예에 따른 시인성 테스트 시뮬레이션 영상에서 AOI의 예시를 도시한다.
도 6은 일 실시 예에 따른 시인성 테스트 시뮬레이션에 대한 시선 추적 데이터의 평가 분석 그래프를 도시한다.
도 7은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 이용한 최적의 표지판 선택 방법의 순서도를 도시한다.1 shows a block diagram of an electronic device according to an embodiment.
2 shows a conceptual diagram of a visibility test simulation according to an embodiment.
3 shows a flow chart of a method of generating a visibility test simulation according to one embodiment.
4 illustrates components of a visibility test simulation according to an embodiment.
5 illustrates an example of an AOI in a visibility test simulation image according to an embodiment.
6 illustrates an evaluation analysis graph of gaze tracking data for a visibility test simulation according to an exemplary embodiment.
7 is a flowchart of an optimal sign selection method using visibility test simulation according to an embodiment.
이하에서, 실시 예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시 예들에 의해 권리범위가 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of rights is not limited or limited by these embodiments. Like reference numerals in each figure indicate like elements.
아래 설명에서 사용되는 용어는, 연관되는 기술 분야에서 일반적이고 보편적인 것으로 선택되었으나, 기술의 발달 및/또는 변화, 관례 기술자의 선호 등에 따라 다른 용어가 있을 수 있다. 따라서, 아래 설명에서 사용되는 용어는 기술적 사상을 한정하는 것으로 이해되어서는 안 되며, 실시 예들을 설명하기 위한 예시적 용어로 이해되어야 한다.The terms used in the description below have been selected as general and universal in the related technical field, but there may be other terms depending on the development and / or change of technology, the preference of customary technicians, etc. Therefore, terms used in the following description should not be understood as limiting technical ideas, but should be understood as exemplary terms for describing embodiments.
또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.In addition, in certain cases, there are also terms arbitrarily selected by the applicant, and in this case, the detailed meaning will be described in the corresponding description section. Therefore, terms used in the following description should be understood based on the meaning of the term and the contents throughout the specification, not simply the name of the term.
도 1은 일 실시 예에 따른 전자 장치의 블록도를 도시한다.1 shows a block diagram of an electronic device according to an embodiment.
일 실시 예에 따른 전자 장치(100)는 프로세서(110), 메모리(120), 디스플레이(130) 및 센서(140)를 포함할 수 있다. 프로세서(110)는 메모리(120), 디스플레이(130) 및 센서(140)를 제어할 수 있다. 예를 들어, 프로세서(110)는 어플리케이션 프로세서 및/또는 프로세서로 참조될 수 있다. 이하, 전자 장치(100)의 동작은 전자 장치(100)의 프로세서(110)에 의하여 수행되는 것으로 이해될 수 있다. 다양한 실시 예에서 전자 장치(100)에 포함된 구성들의 일부는 별도의 장치로서 구성될 수 있다. 예를 들어, 센서(140)는 별도의 장치(예: HMD 장치(205))로 구성될 수 있다. The
프로세서(110)는 중앙처리장치(central processing unit, CPU), 어플리케이션 프로세서(application processor, AP), GPU(graphics processing unit), 카메라의 ISP(image signal processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 SoC(system on chip) 또는 SiP(system in package)로 구현될 수 있다. 프로세서(120)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(120)에 연결된 전자 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소들(예: 센서) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드 하여 처리하고, 결과 데이터를 비 휘발성 메모리에 저장할 수 있다.The processor 110 may be one or more of a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), an image signal processor (ISP) of a camera, or a communication processor (CP). may include more. According to an embodiment, the processor 120 may be implemented as a system on chip (SoC) or system in package (SiP). The processor 120 may control at least one other component (eg, hardware or software component) of the
일 실시 예에서, 전자 장치(100)는 디스플레이(130)을 통하여 MR 영상을 출력할 수 있다. MR 영상은 실제 촬영한 360도 영상에 기반하여 생성될 수 있고, 하나 이상의 가상 객체를 포함할 수 있다. 예를 들어, 가상 객체는 보행자 안내 표지판일 수 있다. MR 영상은 보행 상황을 나타내기 위해 일정 경로로 이동하는 정해진 길이의 영상일 수 있다. 다양한 실시 예에서, MR 영상에 표지판 객체를 정합하여 시인성 테스트 시뮬레이션을 생성할 수 있다.In one embodiment, the
메모리(120)는, 휘발성 메모리 또는 비 휘발성 메모리를 포함할 수 있다. 휘발성 메모리(832)는, 예를 들면, RAM(random access memory)(예: DRAM, SRAM, 또는 SDRAM)로 구성될 수 있다. 비 휘발성 메모리는, 예를 들면, PROM(programmable read-only memory), OTPROM(one time PROM), EPROM(erasable PROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, HDD(hard disk drive), 또는 SSD(solid state drive)로 구성될 수 있다. 또한, 비 휘발성 메모리는, 전자 장치(100)와의 연결 형태에 따라, 그 안에 배치된 내장 메모리(120), 또는 필요 시에만 연결하여 사용 가능한 스탠드-얼론(stand-alone) 형태의 외장 메모리로 구성될 수 있다. 외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card), 또는 메모리 스틱을 포함할 수 있다. 외장 메모리는 유선(예: 케이블 또는 USB(universal serial bus)) 또는 무선(예: Bluetooth)을 통하여 전자 장치(100)와 기능적으로 또는 물리적으로 연결될 수 있다.The memory 120 may include volatile memory or non-volatile memory. The volatile memory 832 may be composed of, for example, random access memory (RAM) (eg, DRAM, SRAM, or SDRAM). Non-volatile memory includes, for example, programmable read-only memory (PROM), one time PROM (OTPROM), erasable PROM (EPROM), electrically EPROM (EEPROM), mask ROM, flash ROM, flash memory, hard disk (HDD) drive), or a solid state drive (SSD). In addition, the non-volatile memory, depending on the connection type with the
일 실시 예에서, 메모리(120)는 복수 개의 베이스씬(base scene)을 저장할 수 있다. 베이스씬은 다양한 방식으로 제작될 수 있다. 예를 들어, 베이스씬은 카메라로 촬영한 실제 영상일 수 있고, 컴퓨터 그래픽으로 제작된 영상일 수 있으며, 2차원 영상, 3차원 영상, 또는 360도 뷰를 제공하는 영상일 수 있다. 베이스씬은 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 시간에 따라 변화하는 광원(태양, 가로등, 주변 건물의 불빛 등)의 정도 등 다양한 구성요소에 의해 결정될 수 있다. 베이스씬은 보행자의 움직임에 따른 보행 상황에 따라 제작될 수 있고, 자동차의 움직임에 따른 운전 상황에 따라 제작될 수 있다. 보행 상황은 보행자 특징, 보행 속도, 보행자 시야 범위, 보행자 도로, 보행시각에 따른 주변 환경 등 복수 개의 요인에 의해 결정될 수 있다. 운전 상황은 도로 교통 상황, 운전 속도, 운전자 또는 동승자의 시야 범위, 차선 특징, 주행시각에 따른 주변 환경 등 복수 개의 요인에 의해 결정될 수 있다. 다양한 실시 예에서, 시인성을 평가하고자 하는 대상물, 연출 상황에 따라 다양한 베이스씬을 생성/저장할 수 있다.In one embodiment, the memory 120 may store a plurality of base scenes. Base scenes can be created in a variety of ways. For example, the base scene may be a real image captured by a camera, an image produced by computer graphics, a 2D image, a 3D image, or an image providing a 360 degree view. A base scene can be determined by various factors, such as topographical features, road characteristics, surrounding congestion, color composition of the surrounding environment, and degree of light sources (sun, street lights, lights from nearby buildings, etc.) that change over time. The base scene may be produced according to a walking situation according to the movement of a pedestrian, and may be produced according to a driving situation according to the movement of a car. The walking situation may be determined by a plurality of factors, such as pedestrian characteristics, walking speed, pedestrian viewing range, pedestrian road, and surrounding environment according to walking time. The driving situation may be determined by a plurality of factors, such as road traffic conditions, driving speed, driver's or passenger's field of view, lane characteristics, and surrounding environment according to driving time. In various embodiments, various base scenes may be created/stored according to an object to be evaluated for visibility and a production situation.
디스플레이(130)는 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이는, 일 실시 예에 따르면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 디스플레이는 사용자의 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 감지할 수 있는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(interchangeably “force sensor”)를 포함할 수 있다. 상기 터치 회로 또는 압력 센서는 디스플레이와 일체형으로 구현되거나, 또는 디스플레이와 별도의 하나 이상의 센서들로 구현될 수 있다. The display 130 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a microelectromechanical system (MEMS) display, or an electronic paper display. can The display, according to one embodiment, may be implemented to be flexible, transparent, or wearable. The display includes touch circuitry that can detect a user's touch, gesture, proximity, or hovering input, or a pressure sensor that can measure the amount of pressure applied to a touch (interchangeably a "force sensor"). can do. The touch circuit or pressure sensor may be integrally implemented with the display or implemented as one or more sensors separate from the display.
일 실시 예에서, 디스플레이(130)는 카메라를 이용하여 촬영한 영상에 가상 콘텐츠를 결합한 혼합 현실 기반 영상을 출력할 수 있다. 디스플레이(130)는 헤드 마운티드 디스플레이(HMD)에 포함될 수 있고, 사용자가 머리 부분에 착용하여 눈에 근접한 디스플레이 영역에 바로 혼합 현실 기반 3차원 360도 동영상을 출력할 수 있다.In one embodiment, the display 130 may output a mixed reality-based image in which virtual content is combined with an image captured using a camera. The display 130 may be included in a head-mounted display (HMD), worn on a head by a user, and output a mixed reality-based 3D 360-degree video directly to a display area close to eyes.
센서(140)는, 예를 들면, 전자 장치(100)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 고도, 습도, 또는 밟기)를 계측 또는 감지하여, 그 계측 또는 감지된 상태 정보에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서(140)는 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB 센서), IR(infrared) 센서, 생체 센서(예: 홍채 센서, 지문 센서, 또는 HRM(heartbeat rate monitoring) 센서, 후각(electronic nose) 센서, EMG(electromyography) 센서, EGG(Electroencephalogram) 센서, ECG(Electrocardiogram) 센서), 온도 센서, 습도 센서, 조도 센서, 또는 UV(ultra violet) 센서를 포함할 수 있다. 센서(140)는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.The sensor 140 measures or detects, for example, an internal operating state (eg, power or temperature) or an external environmental state (eg, altitude, humidity, or stepping on) of the
일 실시 예에서, 센서(140)가 안구 추적 센서(eye tracking sensor)를 포함하는 경우, 전자 장치(100)는 안구 추적 센서를 통하여 사용자의 눈동자가 향하는 방향을 인식하고, 그 방향에 대응되는 MR 영상의 좌표(point)를 결정할 수 있다. MR 영상이 재생되는 동안, 안구 추적 센서는 사용자의 눈동자의 움직임, 동공의 크기 변화, 눈 깜박임 여부를 감지할 수 있다.In an embodiment, when the sensor 140 includes an eye tracking sensor, the
도 2는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 개념도를 도시한다.2 shows a conceptual diagram of a visibility test simulation according to an embodiment.
일 실시 예에 따른 전자 장치(100)는 시인성 테스트를 위한 시뮬레이션 영상을 생성하고, 시뮬레이션 영상을 시청하는 사용자의 시선을 추적한 데이터에 기반하여 시인성 정도를 산출할 수 있다. 시인성(visibility)이란 모양, 색을 인지할 수 있는 성질을 나타낸다. 즉, 시인성은 대상물의 모양이나 색이 원거리에서도 식별이 쉬운 성질을 말하고, 예를 들어, 명도 차이가 클수록 시인성이 높다. 시인성에 영향을 주는 요소는 해상도, 선명도, 밝기가 있고, 절대적인 값이 아니라 대상물 주변의 환경적인 요인에 따른 상대적인 값으로 표현될 수 있다. 예를 들어, 시인성이 높은 이미지는 고해상도(또는 고화질)의 이미지, 선명도를 높인 이미지, 벡터 그래픽스 이미지, 근거리에서의 이미지, 시간적으로 광량이 풍부할 경우 촬영한 이미지(즉, 주변 조도가 높은 상태에서 촬영한 이미지) 등이 있다.The
전자 장치(100)는 다양한 지형 특징, 도로 환경 특징, 색 구성 등을 반영하여 획득한 복수 개의 베이스씬(base scene)(201) 중에서 하나(201a)를 선택할 수 있다. 베이스씬(201)은 다양한 구성요소로 정의될 수 있다. 예를 들어, 지형적인 특정(예: 공원, 도로, 교외, 시내 등), 도로 특징(예: 교차로, 직선로 등), 주변 혼잡도(예: 다수 보행자, 교통 혼잡 여부 등), 또는 다양한 색 구성(예: 단일 색 위주, 다양한 색 위주 등)에 의해 정의될 수 있다. 베이스씬(201)은 예를 들어, 보행 상황을 나타내는 일정 경로로 이동하면서 촬영한 360도 동영상일 수 있다. 일정 경로에는 하나 이상의 보행자를 위한 안내 표지판(202)을 포함할 수 있다. 보행자를 위한 안내 표지판(202)은 다양한 형태, 다양한 크기, 다양한 색으로 구성된 여러 가지 종류의 표지판으로 제작될 수 있다. 전자 장치(100)는 복수 개의 표지판(202) 중에서 하나(202b)를 선택할 수 있다. 전자 장치(100)는 선택한 베이스씬(201a)과 표지판(202b)를 정합하여, MR 영상(203)을 생성할 수 있다. MR 영상(203)은 영상에 포함된 표지판(202b)에 대한 시인성 정도를 평가하기 위한 시인성 테스트 시뮬레이션으로 활용될 수 있다.The
사용자(210)가 헤드 마운티드 디스플레이(220)를 착용하면, 전자 장치(100)는 베이스씬(201a)에 표지판(202b)을 정합하여 생성한 시인성 테스트 시뮬레이션(203)을 재생하고, 시인성 테스트 시뮬레이션(203)이 재생되는 동안 안구 추적 센서(140)를 통해 사용자의 시선을 추적한 데이터(204)를 획득할 수 있다. 사용자의 시선을 추적한 데이터(204)는, 영상에 표시된 표지판(202b)에 대한 사용자의 눈동자의 움직임, 동공의 크기 변화, 눈 깜박임 여부를 감지한 데이터를 포함한다.When the
전자 장치(100)는 시선 추적 데이터(204)를 분석하여 시인성 정도를 산출할 수 있다. 일 실시 예에서, 전자 장치(100)는 복수 개의 표지판(202)에 대하여 동일한 베이스씬(201a)에 각각 정합하여 생성한 복수 개의 시뮬레이션을 통해 시인성 평가를 하여 획득한 시선 추적 데이터들을 분석하여, 복수 개의 표지판(202) 중 가장 시인성이 높은 표지판을 선택할 수 있다.The
도 3은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 생성하는 방법의 순서도를 도시한다. 일 실시 예에 따른 전자 장치(100)는 표지판에 대한 시인성 평가를 하기 위한 시인성 테스트 시뮬레이션을 생성할 수 있다.3 shows a flow chart of a method of generating a visibility test simulation according to one embodiment. The
S301 단계에서, 전자 장치(100)는 카메라를 이용하여 촬영한 360도 동영상을 획득할 수 있다. 전자 장치(100는 메모리(120)에 저장된 복수 개의 베이스씬 중에서 상기 360도 동영상을 선택할 수 있다. 일 실시 예에서, 보행자에게 제공되는 안내 표지판에 대한 시인성 평가를 하기 위해서, 전자 장치(100)는 안내 표지판이 설치될 지점을 포함하여 보행 상황(보행 속도, 보행자 시야 범위, 보행자 도로, 보행시각에 따른 주변 환경 등)에 따라 일정 경로로 이동하면서 일정 시간 동안 카메라로 촬영한 360도 동영상을 획득할 수 있다. 또 다른 일 실시 예에서, 운전자에게 제공되는 안내 표지판에 대한 시인성 평가를 하기 위해서, 전자 장치(100)는 안내 표지판이 설치될 지점을 포함하여 운전 상황(운전 속도, 운전자 또는 동승자의 시야 범위, 차선 상황, 주행시각에 따른 주변 환경 등)에 따라 일정 경로로 이동하면서 카메라로 촬영한 360도 동영상을 획득할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 시인성 테스트의 목적과 대상에 따라 이동 경로의 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 촬영시각에 따른 주변 환경 특징을 고려하여 360도 촬영 동영상을 획득할 수 있다. In step S301, the
S302 단계에서, 전자 장치(100)는 360도 촬영 동영상에 포함된 기존 표지판을 제거할 수 있다. 일 실시 예에서, 전자 장치(100)는 머신러닝 기반 인페인팅(inpainting) 기술을 이용하여 영상에서 특정 객체의 영역을 세그먼트 단위로 지정하고, 해당 객체를 제거한 영역에 주변 배경에 맞춰 자연스럽게 영역을 채워줌으로써 기존 표지판 객체를 제거할 수 있다.In step S302, the
S303 단계에서, 전자 장치(100)는 시인성 테스트를 하기 위한 테스트 표지판을 360도 촬영 동영상에 정합할 수 있다. 일 실시 예에서, 전자 장치(100)는 테스트 표지판의 설치 위치, 크기, 광원에 따른 색, 그림자를 결정하여 테스트 표지판을 정합할 수 있다.In step S303, the
도 4는 일실시예에 따른 시인성 테스트 시뮬레이션의 구성요소를 도시한다.4 illustrates components of a visibility test simulation according to one embodiment.
일 실시 예에서, 전자 장치(100)는 실제 촬영 영상에 가상 객체로 테스트 표지판을 정합할 때, 가장 실제와 비슷하도록 위치, 광원, 그림자 등을 고려하여 설치 위치를 결정할 수 있다. 도 4의 (a)를 참조하면, 설치 위치는 주변 차선에 인접하여 결정될 수 있다. 도 4의 (b)를 참조하면, 광원(태양)을 중심으로 테스트 표지판의 명도가 결정될 수 있다. 도 4의 (c)를 참조하면, 광원에 따른 테스트 표지판의 그림자의 위치, 크기, 색이 결정될 수 있다. 전자 장치(100)는 실제 영상 속에 가상 객체(테스트 표지판)을 정합하여도 사용자가 실제 객체 인지 가상 객체인지 구분할 수 없도록, 실제 구성요소들과 매칭되도록 정합할 수 있다.In one embodiment, the
도 5는 일실시예에 따른 시인성 테스트 시뮬레이션 영상에서 AOI의 예시를 도시한다.5 illustrates an example of an AOI in a visibility test simulation image according to an embodiment.
일 실시 예에서, 전자 장치(100)는 360도 동영상을 시청하는 사용자의 시선을 추적한 데이터를 이용하여 시인성 정도를 산출할 수 있다. 도 5의 (a)를 참조하면 360도 동영상의 화면에 대해서, (b)와 같이 관심 영역(Area of Interest, AOI)를 구분하고, 시인성 평가 대상물(표지판)에 대한 영역을 AOI로 표시할 수 있다. 전자 장치(100)는 도 5의 (b)에 표시된 AOI를 이용하여 표지판(AOI 25번째 영역)의 시인성 정도를 산출할 수 있다.In an embodiment, the
시선 데이터(gaze data)는 고정(fixation)과 도약 안구 운동(saccade)으로 분류할 수 있다. Fixation은 사람이 한 점을 집중하여 볼 때의 시선을 의미하고, Saccade는 Fixation과 Fixation 사이에 움직이는 시선을 의미한다. 또한 눈 깜빡임(Blink), 동공의 크기(pupil diameter)을 포함할 수 있다. 시선 데이터 중 Fixation과 Saccade가 시인성과 높은 연관성을 갖는다. 예를 들어, 전자 장치(100)는 Fixation을 이용하여 시각적 특징 지도(Visual Saliency Map)과 주사 경로(Scan path)를 그릴 수 있다. 시각적 특징 지도는 사람이 어떤 지점을 유심히 보는지 나타내는 히트맵(heat map)이고, 주사 경로는 어떻게 Fixation이 움직였는지 보여주는 플롯(plot)이다. 전자 장치(100)는 시각적 특징 지도와 주사 경로를 수치화하여 어떤 대상물(표지판)이 가장 좋은 시인성을 가지는지 비교할 수 있다. 전자 장치(100)는 시선 엔트로피(Gaze entropy)를 이용하여 시각적 특징 지도와 주사 경로를 수치화할 수 있다. 시선 엔트로피는 시선의 움직임이 얼마나 무작위적인지 판단하는 기준이다. 시선 엔트로피가 높을수록 시선이 한 점에 머물러있는 빈도수가 적고, 시선 엔트로피가 낮을수록 시선이 한 지점에 집중되는 빈도수가 높음을 의미한다. 전자 장치(100)는 시선 엔트로피가 낮을수록 표지판의 시인성이 높다(좋다)라고 판단할 수 있다. 일 실시 예에서, 전자 장치(100)는 시선 데이터에 대한 5가지 파라미터 FFT(Time to First Fixation), FD(Total Duration of Fixations), SSGE(Scene Stationary Gaze Entropy), TSGE(Target Stationary Gaze Entropy), STGE(Scene Transition Gaze Entropy)를 기준으로 시인성을 판단할 수 있다. FFT는 사용자(시뮬레이션의 피 실험자)가 첫 번째로 표지판을 볼 때까지 걸린 시간, FD는 피 실험자의 시선이 표지판에 머물러있는 총 시간, SSGE는 전체 영상에서의 시선 데이터의 정지 엔트로피, TSGE는 전체 영상에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피, STGE는 전체 영상에서 이동 엔트로피를 의미한다. Gaze data can be classified into fixation and saccade. Fixation means the line of sight when a person concentrates on one point, and Saccade means the line of sight that moves between fixations. In addition, eye blinking (Blink) and pupil diameter (pupil diameter) may be included. Among gaze data, Fixation and Saccade have a high correlation with visibility. For example, the
시선 엔트로피는 0 에서 1 사이 값으로 표현할 수 있다. 0으로 근접할수록 한 점(Fixation)에 집중된 패턴을 보이고, 1로 근접할수록 무작위 분포를 가지는 패턴(분산된 패턴)을 보인다. 시선 엔트로피는 정지한 시선 엔트로피(stationary gaze entropy, SGE) 와 전이 시선 엔트로피(transition gaze entropy, TGE) 로 정의할 수 있다. SGE는 특정 지점에 시선이 머문 빈도를 계산하고, TGE는 특정 지점에 시선이 머문 빈도와 함께 다른 지점으로 시선이 이동하는 빈도까지 계산한다. 전체 시뮬레이션에 대한 SGE(Scene Stationary Gaze Entropy, SSGE)와 전체 시뮬레이션 속 표지판에 대한 SGE(Target Stationary Gaze Entropy, TSGE)를 계산할 수 있다.Gaze entropy can be expressed as a value between 0 and 1. The closer to 0 shows a pattern concentrated on one point (fixation), the closer to 1 shows a pattern with a random distribution (distributed pattern). Gaze entropy is stationary gaze entropy (SGE) and transition gaze entropy (TGE) can be defined as SGE calculates the frequency of gaze staying at a specific point, and TGE calculates the frequency of gaze moving to another point along with the frequency of gaze staying at a specific point. You can calculate SGE (Scene Stationary Gaze Entropy, SSGE) for the entire simulation and Target Stationary Gaze Entropy (TSGE) for the signs in the entire simulation.
AOI 세트 , Fixation 시퀀스 에 대해서, 의 전이 확률 , 정지 확률 은 하기 수학식 1과 같이 계산할 수 있다.AOI set , Fixation sequence about, transition probability of , the probability of stopping can be calculated as in
는 i번째 AOI에서 j번째 AOI로 이동한 Fixation의 개수, 는 i번째 AOI에 위치한 Fixation의 개수, 은 해당 영상에서 피험자의 전체 Fixation 개수를 나타낸다. 전자 장치(100)는 도 5의 (a)를 수직하게 24등분한 각 영역을 AOI로 설정하고, 표지판이 위치한 공간을 25번째 AOI로 설정할 수 있다. 전자 장치(100)는 정지한 시선 엔트로피(SGE)를 반복 계산하여 SSGE를 계산하고, 전이 시선 엔트로피(TGE)를 계산하여 STGE를 계산한다. TSGE는 하기 수학식 2와 같이 정지한 시선 엔트로피(SGE)를 계산할 때, 표지판 위에 있는 Fixation을 제외하여 계산할 수 있다. is the number of Fixations moved from the i-th AOI to the j-th AOI, is the number of Fixations located in the ith AOI, represents the total number of fixations of the subject in the corresponding image. The
는 표지판(25번째 AOI)에 위치한 Fixation의 개수를 나타낸다. represents the number of Fixations located on the sign (the 25th AOI).
도 6은 일실시예에 따른 시인성 테스트 시뮬레이션에 대한 시선 추적 데이터의 평가 분석 그래프를 도시한다. 일 실시 예에서, 전자 장치(100)는 시선 데이터에 대한 5가지 파라미터(FFT, FD, SSGE, TSGE, STGE)를 기준으로 테스트 표지판에 대한 시인정 정도를 판단할 수 있다. 시인성은 상대적인 값으로, 전자 장치(100)는 복수 개의 테스트 표지판에 대하여 산출한 파라미터 값을 비교하여 가장 시인성이 좋은 표지판을 선택할 수 있다. 예를 들어, 4가지 테스트 표지판(601 내지 604)에 대한 시인성을 평가하기 위해, 베이스씬에 4가지 테스트 표지판을 각각 정합한 4개의 시인성 테스트 시뮬레이션을 사용자에 테스트한 결과 시선 데이터를 분석한 결과를 도 6과 같이 그래프로 도시할 수 있다. 테스트 표지판(601 내지 604)는 각각 디자인, 색상, 모양이 상이하게 제작되었다. 전자 장치(100)는 시선 데이터에 대한 FFT, SSGE, TSGE, STGE 파라미터 값이 작을수록 시인성이 높다(좋다)고 평가할 수 있다. FD의 경우 값이 클수록 눈에 띄기 유리하기 때문에 그래프에서 덧셈의 역원(1-FD)을 도시하였다. 전자 장치(100)는 그래프 영역의 크기가 제일 작은 4번째 테스트 표지판(604)이 전체 테스트 표지판 중에서 시인성이 제일 높다고 판단할 수 있다.6 illustrates an evaluation analysis graph of gaze tracking data for a visibility test simulation according to an embodiment. In an embodiment, the
도 7은 일실시예에 따른 시인성 테스트 시뮬레이션을 이용한 최적의 표지판 선택 방법의 순서도를 도시한다. 일 실시 예에서, 전자 장치(100)는 테스트하고자 하는 표지판, 표지판 설치 환경에 따라 시인성 테스트 시뮬레이션을 설정할 수 있다.7 is a flowchart of an optimal sign selection method using visibility test simulation according to an embodiment. In an embodiment, the
S701 단계에서, 전자 장치(100)는 시인성 테스트 시뮬레이션 설정에 따라 메모리(120)에 저장된 베이스씬 중 하나를 선택할 수 있다. 시인성 테스트 시뮬레이션 설정은, 테스트 상황, 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 광원 등의 구성요소에 대한 설정 값으로 결정될 수 있다. 예를 들어, 보행 상황에 대하여, 도로 변 인도, 보행자가 많은 경우, 주변 환경은 주로 녹색인 경우, 광원은 태양으로 시인성 테스트 시뮬레이션 설정을 할 수 있다. 전자 장치(100)는 시뮬레이션 설정을 만족하는 베이스씬을 선택할 수 있다.In step S701, the
S702 단계에서, 전자 장치(100)는 복수 개의 테스트 대상 표지판을 포함하는 테스트 케이스를 생성할 수 있다. 전자 장치(100)는 선택된 베이스씬에 복수 개의 테스트 대상 표지판을 각각 정합하여, 복수 개의 시인성 테스트 시뮬레이션을 생성할 수 있다.In step S702, the
S703 단계에서, 전자 장치(100)는 테스트 케이스마다 사용자의 시선 데이터를 획득할 수 있다. 전자 장치(200)는 테스트 케이스의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 안구 추적 센서(140)를 이용하여 사용자의 시선 데이터를 획득할 수 있다. 전자 장치(200)는 복수의 사용자에 대하여 테스트를 수행하여 각 시인성 테스트 시뮬레이션마다 복수 개의 시선 데이터를 획득할 수 있다.In step S703, the
S704 단계에서, 전자 장치(100)는 테스트 케이스에 대한 복수 개의 시선 데이터에 대한 시인성 파라미터(FFT, FD, SSGE, TSGE, STGE)를 산출할 수 있다. 전자 장치(100)는 앞서 도 5 및 도 6에서 설명한 방법에 따라 시인성 파라미터 값을 계산할 수 있다.In step S704, the
S705 단계에서, 전자 장치(100)는 복수 개의 테스트 대상 표지판의 시인성 파라미터 값을 비교하여, 가장 시인성이 높은 표지판을 최종 표지판으로 선택할 수 있다.In step S705, the
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 안는 한, 복수의 표현을 ??할 수 있다. 본 문서에서 “A 또는 B”, “A 및/또는 B 중 적어도 하나”, “A, B 또는 C”, 또는 “A, B 및/또는 C 중 적어도 하나” 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. “제1”, “제2”, “첫째”, 또는 “둘째” 등의 표현들은 해당 구성요소들을 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions can be plural unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C”, or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as “first,” “second,” “first,” or “second” may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).
본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리 120)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.In this document, "adapted to or configured to" means "adapted to or configured to" depending on the situation, for example, hardware or software "adapted to," "having the ability to," "changed to," ""made to," "capable of," or "designed to" can be used interchangeably. In some contexts, the expression "device configured to" can mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor set up (or configured) to perform A, B, and C" may include a dedicated processor (eg, an embedded processor) to perform those operations, or one stored in a memory device (eg, memory 120). By executing the above programs, it may mean a general-purpose processor (eg, CPU or AP) capable of performing corresponding operations.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, parts, or circuits, for example. can A “module” may be an integrally constructed component or a minimal unit or part thereof that performs one or more functions. A "module" may be implemented mechanically or electronically, for example, a known or future developed application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), or A programmable logic device may be included.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(120))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(110))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.At least some of the devices (eg, modules or functions thereof) or methods (eg, operations) according to various embodiments are instructions stored in a computer-readable storage medium (eg, the memory 120) in the form of program modules. can be implemented as When the command is executed by a processor (eg, the processor 110), the processor may perform a function corresponding to the command. Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magneto-optical media (e.g. floptical disks), built-in memory, etc.) The instruction may include code generated by a compiler or code executable by an interpreter.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each component (eg, module or program module) according to various embodiments may be composed of a single object or a plurality of entities, and some sub-components among the aforementioned corresponding sub-components may be omitted, or other sub-components may be used. can include more. Alternatively or additionally, some components (eg, modules or program modules) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration. Operations performed by modules, program modules, or other components according to various embodiments are executed sequentially, in parallel, repetitively, or heuristically, or at least some operations are executed in a different order, omitted, or other operations. this may be added.
100: 전자 장치
110: 프로세서
120: 메모리
130: 디스플레이
140: 센서
210: 사용자
220: HMD100: electronic device
110: processor
120: memory
130: display
140: sensor
210: user
220: HMD
Claims (15)
디스플레이;
안구 추적 센서;
명령어들(instructions)을 저장하는 메모리; 및
적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
제1 경로를 따라 이동하면서 촬영한 동영상의 제1 위치에 적어도 두 개의 테스트 표지판을 각각 정합하여 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하고,
상기 디스플레이를 통해 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 재생하는 동안, 상기 안구 추적 센서를 통해 사용자의 각각의 시선 데이터를 획득하고, 및
상기 각각의 시선 데이터에 기반하여 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 전자 장치.
In electronic devices,
display;
eye tracking sensor;
memory for storing instructions; and
including at least one processor, wherein the at least one processor comprises:
generating at least two visibility test simulations by matching at least two test signs to a first position of a video captured while moving along a first path, respectively;
Obtain gaze data of each user through the eye tracking sensor while reproducing the at least two visibility test simulations through the display; and
comparing visibility parameters for the at least two test signs based on the respective gaze data;
The visibility parameter is the time it takes for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and transition entropy in the entire simulation (Scene Transition Gaze Entropy) An electronic device.
상기 적어도 하나의 프로세서가 상기 테스트 표지판의 크기, 상기 제1 위치와 관련된 광원, 상기 광원에 따른 상기 테스트 표지판의 명도, 또는 상기 테스트 표지판의 그림자의 크기 중 적어도 하나를 고려하여 상기 제1 위치에 상기 테스트 표지판을 정합하는, 전자 장치.
According to claim 1,
The at least one processor determines the size of the test sign at the first location by considering at least one of a size of the test sign, a light source related to the first position, brightness of the test sign according to the light source, or a size of a shadow of the test sign. Electronic device, matching test signs.
상기 시인성 파라미터는 시선 엔트로피 값으로 정의되고, 상기 시선 엔트로피는 상기 시선 데이터의 고정(fixation) 및 도약 안구 운동(saccade)으로 결정되는, 전자 장치.
According to claim 1,
The visibility parameter is defined as a gaze entropy value, and the gaze entropy is determined by fixation and saccade of the gaze data.
상기 적어도 하나의 프로세서가 상기 동영상의 화면을 일정한 면적의 영역으로 구분한 복수 개의 관심 영역(AOI)과 테스트 표지판에 대한 관심 영역에 대하여 상기 시선 엔트로피를 산출하여 상기 시인성 파라미터를 계산하는, 전자 장치.
According to claim 1,
Wherein the at least one processor calculates the visibility parameter by calculating the gaze entropy for a plurality of regions of interest (AOIs) in which the screen of the video is divided into regions of a certain area and a region of interest for a test sign.
상기 디스플레이 및 상기 안구 추적 센서는 헤드 마운티드 디스플레이(Head Mounted Display, HMD)의 형태인, 전자 장치.
According to claim 1,
The electronic device, wherein the display and the eye tracking sensor are in the form of a Head Mounted Display (HMD).
상기 동영상은 360도 뷰를 제공하는 3차원 동영상이고, 상기 시인성 테스트 시뮬레이션은 혼합 현실(MR)기반으로 생성되는, 전자 장치.
According to claim 1,
The video is a 3D video providing a 360-degree view, and the visibility test simulation is generated based on mixed reality (MR).
복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 단계;
상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계;
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 단계;
상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 단계; 및
상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 단계
를 포함하고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 방법.
In the method for evaluating sign visibility based on MR simulation,
selecting a first base scene captured by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes;
generating at least two visibility test simulations by matching at least two test signs with the first base scene, respectively;
acquiring gaze data of a user while reproducing the at least two visibility test simulations, respectively;
comparing visibility parameters for the at least two test signs based on the respective gaze data; and
Selecting a sign with the highest visibility among the at least two test signs
including,
The visibility parameter is the time it takes for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and moving entropy in the entire simulation (Scene Transition Gaze Entropy) Method.
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계는,
상기 테스트 표지판의 크기, 광원, 상기 광원에 따른 상기 테스트 표지판의 명도, 또는 상기 테스트 표지판의 그림자의 크기 중 적어도 하나를 고려하여 제1 위치에 상기 테스트 표지판을 정합하는, 방법.
According to claim 8,
Generating the at least two visibility test simulations,
Matching the test sign to the first position in consideration of at least one of a size of the test sign, a light source, brightness of the test sign according to the light source, or a size of a shadow of the test sign.
상기 시인성 파라미터는 시선 엔트로피 값으로 정의되고, 상기 시선 엔트로피는 상기 시선 데이터의 고정(fixation) 및 도약 안구 운동(saccade)으로 결정되는, 방법.
According to claim 8,
The method of claim 1 , wherein the visibility parameter is defined as a gaze entropy value, and the gaze entropy is determined by fixation and saccade of the gaze data.
상기 시인성 파라미터를 비교하는 단계는,
상기 적어도 두 개의 시인성 테스트 시뮬레이션 각각의 화면을 일정한 면적의 영역으로 구분한 복수 개의 관심 영역(AOI)과 테스트 표지판에 대한 관심 영역에 대하여 상기 시선 엔트로피를 산출하여 상기 시인성 파라미터를 각각 계산하는, 방법.
According to claim 8,
Comparing the visibility parameters,
Calculating the visibility parameter by calculating the gaze entropy for a plurality of regions of interest (AOIs) in which the screens of each of the at least two visibility test simulations are divided into regions of a certain area and the region of interest for the test sign, respectively. Method.
상기 사용자의 시선 데이터를 각각 획득하는 단계는, 상기 사용자가 착용한 헤드 마운티드 디스플레이(HMD)를 통해 상기 시인성 테스트 시뮬레이션을 각각 재생하고, 안구 추적 센서를 통해 사용자의 시선 데이터를 수집하는, 방법.
According to claim 8,
The acquiring of each user's gaze data includes reproducing the visibility test simulation through a head mounted display (HMD) worn by the user, and collecting the user's gaze data through an eye tracking sensor.
상기 베이스 씬은 360도 뷰를 제공하는 3차원 동영상이고, 상기 시인성 테스트 시뮬레이션은 혼합 현실(MR) 기반으로 생성되는, 방법.
According to claim 8,
The base scene is a 3D video providing a 360 degree view, and the visibility test simulation is generated based on mixed reality (MR).
복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 동작;
상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 동작;
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 동작;
상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 동작; 및
상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 동작을 포함하도록 설정되고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 기록매체.
A recording medium storing computer readable instructions, which when executed by an electronic device cause the electronic device to:
selecting a first base scene captured by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes;
generating at least two visibility test simulations by matching at least two test signs with the first base scene;
acquiring gaze data of the user while reproducing the at least two visibility test simulations, respectively;
comparing visibility parameters of the at least two test signs based on each of the gaze data; and
It is set to include an operation of selecting a sign with the highest visibility among the at least two test signs,
The visibility parameter is the time it took for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and transition entropy in the entire simulation (Scene Transition Gaze Entropy). Recording medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210182072A KR102542977B1 (en) | 2021-12-17 | 2021-12-17 | Device and method for evaluation of sign visibility based on mr simulation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210182072A KR102542977B1 (en) | 2021-12-17 | 2021-12-17 | Device and method for evaluation of sign visibility based on mr simulation |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102542977B1 true KR102542977B1 (en) | 2023-06-13 |
Family
ID=86762682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210182072A KR102542977B1 (en) | 2021-12-17 | 2021-12-17 | Device and method for evaluation of sign visibility based on mr simulation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102542977B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180132922A (en) * | 2016-05-30 | 2018-12-12 | 엘지전자 주식회사 | Vehicle display devices and vehicles |
KR20190067366A (en) * | 2017-12-07 | 2019-06-17 | 삼성전자주식회사 | Vehicle and control method thereof |
-
2021
- 2021-12-17 KR KR1020210182072A patent/KR102542977B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180132922A (en) * | 2016-05-30 | 2018-12-12 | 엘지전자 주식회사 | Vehicle display devices and vehicles |
KR20190067366A (en) * | 2017-12-07 | 2019-06-17 | 삼성전자주식회사 | Vehicle and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210357670A1 (en) | Driver Attention Detection Method | |
US10909697B2 (en) | Image processing apparatus, monitoring system, image processing method,and program | |
JP2020526821A (en) | Extraction of visual data, depth data, and micro-vibration data using an integrated imaging device | |
Langner et al. | Traffic awareness driver assistance based on stereovision, eye-tracking, and head-up display | |
JP6318470B2 (en) | Display control device, display control method, and recording medium | |
JP2011505610A (en) | Method and apparatus for mapping distance sensor data to image sensor data | |
US20160262614A1 (en) | Eye gaze detection supporting device and eye gaze detection supporting method | |
KR102641117B1 (en) | Method and apparatus of augmenting image | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
WO2017169273A1 (en) | Information processing device, information processing method, and program | |
CN105659200A (en) | Method, apparatus, and system for displaying graphical user interface | |
WO2019097595A1 (en) | Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program | |
US11004273B2 (en) | Information processing device and information processing method | |
JP6221292B2 (en) | Concentration determination program, concentration determination device, and concentration determination method | |
EP2976990B1 (en) | Pupil detection device and pupil detection method | |
KR102542977B1 (en) | Device and method for evaluation of sign visibility based on mr simulation | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
KR20140014868A (en) | Gaze tracking apparatus and method | |
Lochbihler et al. | Assessing Driver Gaze Location in a Dynamic Vehicle Environment | |
Liu et al. | Saliency difference based objective evaluation method for a superimposed screen of the HUD with various background | |
US20210290133A1 (en) | Evaluation device, evaluation method, and non-transitory storage medium | |
JP7261370B2 (en) | Information processing device, information processing system, information processing method, and computer program | |
JP5256508B2 (en) | 3D information calculation apparatus and 3D information calculation method | |
Malawski | Driver assistance system using augmented reality headset | |
JP2009110065A (en) | Driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |