KR102542977B1 - Device and method for evaluation of sign visibility based on mr simulation - Google Patents

Device and method for evaluation of sign visibility based on mr simulation Download PDF

Info

Publication number
KR102542977B1
KR102542977B1 KR1020210182072A KR20210182072A KR102542977B1 KR 102542977 B1 KR102542977 B1 KR 102542977B1 KR 1020210182072 A KR1020210182072 A KR 1020210182072A KR 20210182072 A KR20210182072 A KR 20210182072A KR 102542977 B1 KR102542977 B1 KR 102542977B1
Authority
KR
South Korea
Prior art keywords
test
gaze
visibility
entropy
sign
Prior art date
Application number
KR1020210182072A
Other languages
Korean (ko)
Inventor
홍진혁
전준렬
서주찬
최준두
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020210182072A priority Critical patent/KR102542977B1/en
Application granted granted Critical
Publication of KR102542977B1 publication Critical patent/KR102542977B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

An electronic device according to an embodiment of the present disclosure can generate an MR-based visibility test simulation by matching at least two test signs to specific positions in a video captured while moving along a walking path, acquire the gaze data of a user through an eye-tracking sensor while playing each MR-based visibility test simulation through a head-mounted display; and compare visibility parameters for at least two test signs based on each of the gaze data.

Description

MR 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법{DEVICE AND METHOD FOR EVALUATION OF SIGN VISIBILITY BASED ON MR SIMULATION}Apparatus and method for evaluating sign visibility based on MR simulation {DEVICE AND METHOD FOR EVALUATION OF SIGN VISIBILITY BASED ON MR SIMULATION}

MR 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법에 연관되며, 보다 구체적으로는 MR 시뮬레이션을 통해 표지판의 시선 추적 데이터를 획득하여 표지판 시인성을 평가하는 전자 장치에 연관된다.It relates to an apparatus and method for evaluating sign visibility based on MR simulation, and more specifically, to an electronic device that evaluates sign visibility by acquiring eye tracking data of a sign through MR simulation.

혼합 현실(Mixed Reality, MR)이란 현실 세계와 가상세계 정보를 결합하여 두 세계를 융합시키는 공간을 만들어내는 기술로, 증강현실(AR)과 가상현실(VR)의 장점을 통합한 것이다. 혼합 현실은 증강현실을 개선한 것으로, 증강현실은 사용자가 눈으로 보는 실제 세계와 부가 정보를 갖는 가상 세계를 중첩(overlay)하여 하나의 영상으로 보여주는 기술이다.Mixed Reality (MR) is a technology that combines the information of the real world and the virtual world to create a space that fuses the two worlds, integrating the advantages of augmented reality (AR) and virtual reality (VR). Mixed reality is an improvement of augmented reality, and augmented reality is a technology that overlays a real world that a user sees with eyes and a virtual world having additional information to show as a single image.

가상 현실 디스플레이를 위한 헤드 마운티드 디스플레이(Head Mounted Display, HMD)는 사용자의 머리 부분에 착용하고 사용자의 눈에 직접 3D 영상을 디스플레이함으로써 가상 현실 영상을 제공하는 수단이다.A head mounted display (HMD) for a virtual reality display is a means for providing a virtual reality image by being worn on a user's head and displaying a 3D image directly to the user's eyes.

실시 예들에 따르면, 다양한 종류의 표지판 디자인에 대한 시인성 평가를 위한 MR 기반 테스트 시뮬레이션을 생성하는 전자 장치가 제공될 수 있다.According to embodiments, an electronic device for generating MR-based test simulation for visibility evaluation of various types of sign designs may be provided.

실시 예들에 따르면, MR 기반 테스트 시뮬레이션을 재생하는 동안 사용자의 시선 데이터를 수집하여 시선 엔트로피 값을 계산하여 다양한 종류의 표지판 디자인에 대한 시인성 정도를 비교하는 전자 장치가 제공될 수 있다.According to embodiments, an electronic device may be provided that collects gaze data of a user while reproducing an MR-based test simulation, calculates a gaze entropy value, and compares visibility of various types of sign designs.

실시 예의 일 측면에 따른 전자 장치는, 디스플레이, 안구 추적 센서, 명령어들(instructions)을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 제1 경로를 따라 이동하면서 촬영한 동영상의 제1 위치에 적어도 두 개의 테스트 표지판을 정합한 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하고, 상기 디스플레이를 통해 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 재생하는 동안, 상기 안구 추적 센서를 통해 사용자의 각각의 시선 데이터를 획득하고, 상기 각각의 시선 데이터에 기반하여 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교할 수 있다.An electronic device according to an aspect of an embodiment includes a display, an eye tracking sensor, a memory for storing instructions, and at least one processor, wherein the at least one processor takes pictures while moving along a first path. At least two visibility test simulations matching at least two test signs to a first position of a video are generated, and while the at least two visibility test simulations are reproduced through the display, the user's respective user information is displayed through the eye tracking sensor. Obtain gaze data of , and compare visibility parameters for the at least two test signs based on each gaze data.

실시 예의 다른 일 측면에 따른 MR 시뮬레이션 기반 표지판 시인성을 평가하는 방법은, 복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 단계, 상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계, 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 단계, 상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 단계, 및 상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 단계를 포함할 수 있다.A method for evaluating sign visibility based on MR simulation according to another aspect of an embodiment includes selecting a first base scene photographed by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes. generating at least two visibility test simulations by matching at least two test signs with the first base scene, respectively, acquiring gaze data of the user while reproducing the at least two visibility test simulations, respectively; The method may include comparing visibility parameters of the at least two test signs based on the gaze data, and selecting a sign having the highest visibility among the at least two test signs.

실시 예의 또 다른 일 측면에 따른 컴퓨터 판독 가능한 명령어들을 저장하는 기록 매체에 있어서, 상기 명령어들은 전자 장치에 의해 실행 시 상기 전자 장치로 하여금: 복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 동작, 상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 동작, 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 동작, 상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 동작, 및 상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 동작을 포함할 수 있다.A recording medium storing computer readable instructions according to another aspect of the embodiment, wherein the instructions, when executed by an electronic device, cause the electronic device to perform: a first command according to a test situation among a plurality of base scenes; Selecting a first base scene photographed by a camera for a predetermined time along a route, matching at least two test signs to the first base scene, and generating at least two visibility test simulations. Obtaining each user's gaze data while reproducing each visibility test simulation, comparing visibility parameters of the at least two test signs based on the respective gaze data, and performing the operation of comparing the visibility parameters of the at least two test signs. An operation of selecting a sign with the highest visibility among them may be included.

전술한 것 외의 다른 측면, 특징, 및 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

실시 예들에 따르면, 기존의 다양한 종류의 표지판 디자인에 대한 시인성을 평가하기 위해 실물 표지판을 제작하거나, 기존 표지판을 제거하고 테스트 표지판을 설치하여 보행자로 하여금 시인성 여부를 주관적으로 판단하지 않는 대신에, 사용자가 헤드 마운티드 디스플레이를 통해 MR 기반 시인성 테스트 시뮬레이션을 시청하는 동안 사용자 시선에 대한 데이터를 획득하여 시인성 정도를 객관적으로 판단할 수 있다.According to the embodiments, in order to evaluate the visibility of various types of existing sign designs, actual signs are produced, or existing signs are removed and test signs are installed so that pedestrians do not subjectively judge visibility. While viewing the MR-based visibility test simulation through the head-mounted display, data on the user's gaze may be acquired to objectively determine the degree of visibility.

실시 예들에 따르면, 복수 개의 테스트 표지판에 대해서, 간단한 시뮬레이션을 통해 객관적인 지표로 산출될 수 있는 시인성 파라미터 값을 비교함으로써 가장 시인성이 높은 테스트 표지판을 제공할 수 있다.According to embodiments, a test sign having the highest visibility may be provided by comparing visibility parameter values that may be calculated as objective indicators through a simple simulation with respect to a plurality of test signs.

도 1은 일 실시 예에 따른 전자 장치의 블록도를 도시한다.
도 2는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 개념도를 도시한다.
도 3은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 생성하는 방법의 순서도를 도시한다.
도 4는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 구성요소를 도시한다.
도 5는 일 실시 예에 따른 시인성 테스트 시뮬레이션 영상에서 AOI의 예시를 도시한다.
도 6은 일 실시 예에 따른 시인성 테스트 시뮬레이션에 대한 시선 추적 데이터의 평가 분석 그래프를 도시한다.
도 7은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 이용한 최적의 표지판 선택 방법의 순서도를 도시한다.
1 shows a block diagram of an electronic device according to an embodiment.
2 shows a conceptual diagram of a visibility test simulation according to an embodiment.
3 shows a flow chart of a method of generating a visibility test simulation according to one embodiment.
4 illustrates components of a visibility test simulation according to an embodiment.
5 illustrates an example of an AOI in a visibility test simulation image according to an embodiment.
6 illustrates an evaluation analysis graph of gaze tracking data for a visibility test simulation according to an exemplary embodiment.
7 is a flowchart of an optimal sign selection method using visibility test simulation according to an embodiment.

이하에서, 실시 예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시 예들에 의해 권리범위가 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of rights is not limited or limited by these embodiments. Like reference numerals in each figure indicate like elements.

아래 설명에서 사용되는 용어는, 연관되는 기술 분야에서 일반적이고 보편적인 것으로 선택되었으나, 기술의 발달 및/또는 변화, 관례 기술자의 선호 등에 따라 다른 용어가 있을 수 있다. 따라서, 아래 설명에서 사용되는 용어는 기술적 사상을 한정하는 것으로 이해되어서는 안 되며, 실시 예들을 설명하기 위한 예시적 용어로 이해되어야 한다.The terms used in the description below have been selected as general and universal in the related technical field, but there may be other terms depending on the development and / or change of technology, the preference of customary technicians, etc. Therefore, terms used in the following description should not be understood as limiting technical ideas, but should be understood as exemplary terms for describing embodiments.

또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.In addition, in certain cases, there are also terms arbitrarily selected by the applicant, and in this case, the detailed meaning will be described in the corresponding description section. Therefore, terms used in the following description should be understood based on the meaning of the term and the contents throughout the specification, not simply the name of the term.

도 1은 일 실시 예에 따른 전자 장치의 블록도를 도시한다.1 shows a block diagram of an electronic device according to an embodiment.

일 실시 예에 따른 전자 장치(100)는 프로세서(110), 메모리(120), 디스플레이(130) 및 센서(140)를 포함할 수 있다. 프로세서(110)는 메모리(120), 디스플레이(130) 및 센서(140)를 제어할 수 있다. 예를 들어, 프로세서(110)는 어플리케이션 프로세서 및/또는 프로세서로 참조될 수 있다. 이하, 전자 장치(100)의 동작은 전자 장치(100)의 프로세서(110)에 의하여 수행되는 것으로 이해될 수 있다. 다양한 실시 예에서 전자 장치(100)에 포함된 구성들의 일부는 별도의 장치로서 구성될 수 있다. 예를 들어, 센서(140)는 별도의 장치(예: HMD 장치(205))로 구성될 수 있다. The electronic device 100 according to an embodiment may include a processor 110, a memory 120, a display 130, and a sensor 140. The processor 110 may control the memory 120 , the display 130 and the sensor 140 . For example, processor 110 may be referred to as an application processor and/or processor. Hereinafter, the operation of the electronic device 100 may be understood as being performed by the processor 110 of the electronic device 100 . In various embodiments, some of the components included in the electronic device 100 may be configured as a separate device. For example, the sensor 140 may be configured as a separate device (eg, the HMD device 205).

프로세서(110)는 중앙처리장치(central processing unit, CPU), 어플리케이션 프로세서(application processor, AP), GPU(graphics processing unit), 카메라의 ISP(image signal processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 SoC(system on chip) 또는 SiP(system in package)로 구현될 수 있다. 프로세서(120)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(120)에 연결된 전자 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소들(예: 센서) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드 하여 처리하고, 결과 데이터를 비 휘발성 메모리에 저장할 수 있다.The processor 110 may be one or more of a central processing unit (CPU), an application processor (AP), a graphics processing unit (GPU), an image signal processor (ISP) of a camera, or a communication processor (CP). may include more. According to an embodiment, the processor 120 may be implemented as a system on chip (SoC) or system in package (SiP). The processor 120 may control at least one other component (eg, hardware or software component) of the electronic device 100 connected to the processor 120 by driving an operating system or an application program, and , various data processing and calculations can be performed. The processor 120 may load and process a command or data received from at least one of the other components (eg, a sensor) into a volatile memory, and store resultant data in a non-volatile memory.

일 실시 예에서, 전자 장치(100)는 디스플레이(130)을 통하여 MR 영상을 출력할 수 있다. MR 영상은 실제 촬영한 360도 영상에 기반하여 생성될 수 있고, 하나 이상의 가상 객체를 포함할 수 있다. 예를 들어, 가상 객체는 보행자 안내 표지판일 수 있다. MR 영상은 보행 상황을 나타내기 위해 일정 경로로 이동하는 정해진 길이의 영상일 수 있다. 다양한 실시 예에서, MR 영상에 표지판 객체를 정합하여 시인성 테스트 시뮬레이션을 생성할 수 있다.In one embodiment, the electronic device 100 may output an MR image through the display 130. The MR image may be generated based on a 360-degree image actually captured and may include one or more virtual objects. For example, the virtual object may be a pedestrian guidance sign. The MR image may be an image of a predetermined length moving along a certain path to represent a walking situation. In various embodiments, a visibility test simulation may be generated by matching a sign object to an MR image.

메모리(120)는, 휘발성 메모리 또는 비 휘발성 메모리를 포함할 수 있다. 휘발성 메모리(832)는, 예를 들면, RAM(random access memory)(예: DRAM, SRAM, 또는 SDRAM)로 구성될 수 있다. 비 휘발성 메모리는, 예를 들면, PROM(programmable read-only memory), OTPROM(one time PROM), EPROM(erasable PROM), EEPROM(electrically EPROM), mask ROM, flash ROM, 플래시 메모리, HDD(hard disk drive), 또는 SSD(solid state drive)로 구성될 수 있다. 또한, 비 휘발성 메모리는, 전자 장치(100)와의 연결 형태에 따라, 그 안에 배치된 내장 메모리(120), 또는 필요 시에만 연결하여 사용 가능한 스탠드-얼론(stand-alone) 형태의 외장 메모리로 구성될 수 있다. 외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card), 또는 메모리 스틱을 포함할 수 있다. 외장 메모리는 유선(예: 케이블 또는 USB(universal serial bus)) 또는 무선(예: Bluetooth)을 통하여 전자 장치(100)와 기능적으로 또는 물리적으로 연결될 수 있다.The memory 120 may include volatile memory or non-volatile memory. The volatile memory 832 may be composed of, for example, random access memory (RAM) (eg, DRAM, SRAM, or SDRAM). Non-volatile memory includes, for example, programmable read-only memory (PROM), one time PROM (OTPROM), erasable PROM (EPROM), electrically EPROM (EEPROM), mask ROM, flash ROM, flash memory, hard disk (HDD) drive), or a solid state drive (SSD). In addition, the non-volatile memory, depending on the connection type with the electronic device 100, the built-in memory 120 disposed therein, or a stand-alone type of external memory that can be connected and used only when necessary. Consists of It can be. External memory is a flash drive, for example, compact flash (CF), secure digital (SD), Micro-SD, Mini-SD, extreme digital (xD), multi-media card (MMC), or memory. Can contain sticks. The external memory may be functionally or physically connected to the electronic device 100 through wire (eg, cable or universal serial bus (USB)) or wirelessly (eg, Bluetooth).

일 실시 예에서, 메모리(120)는 복수 개의 베이스씬(base scene)을 저장할 수 있다. 베이스씬은 다양한 방식으로 제작될 수 있다. 예를 들어, 베이스씬은 카메라로 촬영한 실제 영상일 수 있고, 컴퓨터 그래픽으로 제작된 영상일 수 있으며, 2차원 영상, 3차원 영상, 또는 360도 뷰를 제공하는 영상일 수 있다. 베이스씬은 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 시간에 따라 변화하는 광원(태양, 가로등, 주변 건물의 불빛 등)의 정도 등 다양한 구성요소에 의해 결정될 수 있다. 베이스씬은 보행자의 움직임에 따른 보행 상황에 따라 제작될 수 있고, 자동차의 움직임에 따른 운전 상황에 따라 제작될 수 있다. 보행 상황은 보행자 특징, 보행 속도, 보행자 시야 범위, 보행자 도로, 보행시각에 따른 주변 환경 등 복수 개의 요인에 의해 결정될 수 있다. 운전 상황은 도로 교통 상황, 운전 속도, 운전자 또는 동승자의 시야 범위, 차선 특징, 주행시각에 따른 주변 환경 등 복수 개의 요인에 의해 결정될 수 있다. 다양한 실시 예에서, 시인성을 평가하고자 하는 대상물, 연출 상황에 따라 다양한 베이스씬을 생성/저장할 수 있다.In one embodiment, the memory 120 may store a plurality of base scenes. Base scenes can be created in a variety of ways. For example, the base scene may be a real image captured by a camera, an image produced by computer graphics, a 2D image, a 3D image, or an image providing a 360 degree view. A base scene can be determined by various factors, such as topographical features, road characteristics, surrounding congestion, color composition of the surrounding environment, and degree of light sources (sun, street lights, lights from nearby buildings, etc.) that change over time. The base scene may be produced according to a walking situation according to the movement of a pedestrian, and may be produced according to a driving situation according to the movement of a car. The walking situation may be determined by a plurality of factors, such as pedestrian characteristics, walking speed, pedestrian viewing range, pedestrian road, and surrounding environment according to walking time. The driving situation may be determined by a plurality of factors, such as road traffic conditions, driving speed, driver's or passenger's field of view, lane characteristics, and surrounding environment according to driving time. In various embodiments, various base scenes may be created/stored according to an object to be evaluated for visibility and a production situation.

디스플레이(130)는 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이는, 일 실시 예에 따르면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 디스플레이는 사용자의 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 감지할 수 있는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(interchangeably “force sensor”)를 포함할 수 있다. 상기 터치 회로 또는 압력 센서는 디스플레이와 일체형으로 구현되거나, 또는 디스플레이와 별도의 하나 이상의 센서들로 구현될 수 있다. The display 130 may include, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, a microelectromechanical system (MEMS) display, or an electronic paper display. can The display, according to one embodiment, may be implemented to be flexible, transparent, or wearable. The display includes touch circuitry that can detect a user's touch, gesture, proximity, or hovering input, or a pressure sensor that can measure the amount of pressure applied to a touch (interchangeably a "force sensor"). can do. The touch circuit or pressure sensor may be integrally implemented with the display or implemented as one or more sensors separate from the display.

일 실시 예에서, 디스플레이(130)는 카메라를 이용하여 촬영한 영상에 가상 콘텐츠를 결합한 혼합 현실 기반 영상을 출력할 수 있다. 디스플레이(130)는 헤드 마운티드 디스플레이(HMD)에 포함될 수 있고, 사용자가 머리 부분에 착용하여 눈에 근접한 디스플레이 영역에 바로 혼합 현실 기반 3차원 360도 동영상을 출력할 수 있다.In one embodiment, the display 130 may output a mixed reality-based image in which virtual content is combined with an image captured using a camera. The display 130 may be included in a head-mounted display (HMD), worn on a head by a user, and output a mixed reality-based 3D 360-degree video directly to a display area close to eyes.

센서(140)는, 예를 들면, 전자 장치(100)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 고도, 습도, 또는 밟기)를 계측 또는 감지하여, 그 계측 또는 감지된 상태 정보에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서(140)는 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러(color) 센서(예: RGB 센서), IR(infrared) 센서, 생체 센서(예: 홍채 센서, 지문 센서, 또는 HRM(heartbeat rate monitoring) 센서, 후각(electronic nose) 센서, EMG(electromyography) 센서, EGG(Electroencephalogram) 센서, ECG(Electrocardiogram) 센서), 온도 센서, 습도 센서, 조도 센서, 또는 UV(ultra violet) 센서를 포함할 수 있다. 센서(140)는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.The sensor 140 measures or detects, for example, an internal operating state (eg, power or temperature) or an external environmental state (eg, altitude, humidity, or stepping on) of the electronic device 100, Electrical signals or data values corresponding to measured or sensed state information may be generated. The sensor 140 may be, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor (eg, an RGB sensor), an IR (infrared) sensor, and a biometric sensor. (e.g. iris sensor, fingerprint sensor, or heartbeat rate monitoring (HRM) sensor, electronic nose sensor, electromyography (EMG) sensor, electroencephalogram (EGG) sensor, electrocardiogram (ECG) sensor), temperature sensor, humidity sensor, An illuminance sensor or UV (ultra violet) sensor may be included. The sensor 140 may further include a control circuit for controlling one or more sensors included therein.

일 실시 예에서, 센서(140)가 안구 추적 센서(eye tracking sensor)를 포함하는 경우, 전자 장치(100)는 안구 추적 센서를 통하여 사용자의 눈동자가 향하는 방향을 인식하고, 그 방향에 대응되는 MR 영상의 좌표(point)를 결정할 수 있다. MR 영상이 재생되는 동안, 안구 추적 센서는 사용자의 눈동자의 움직임, 동공의 크기 변화, 눈 깜박임 여부를 감지할 수 있다.In an embodiment, when the sensor 140 includes an eye tracking sensor, the electronic device 100 recognizes a direction in which the user's eyes are directed through the eye tracking sensor, and generates an MR corresponding to the direction. The coordinates (point) of the image can be determined. While the MR image is being reproduced, the eye tracking sensor may detect movement of the user's pupils, change in pupil size, and blinking of the eyes.

도 2는 일 실시 예에 따른 시인성 테스트 시뮬레이션의 개념도를 도시한다.2 shows a conceptual diagram of a visibility test simulation according to an embodiment.

일 실시 예에 따른 전자 장치(100)는 시인성 테스트를 위한 시뮬레이션 영상을 생성하고, 시뮬레이션 영상을 시청하는 사용자의 시선을 추적한 데이터에 기반하여 시인성 정도를 산출할 수 있다. 시인성(visibility)이란 모양, 색을 인지할 수 있는 성질을 나타낸다. 즉, 시인성은 대상물의 모양이나 색이 원거리에서도 식별이 쉬운 성질을 말하고, 예를 들어, 명도 차이가 클수록 시인성이 높다. 시인성에 영향을 주는 요소는 해상도, 선명도, 밝기가 있고, 절대적인 값이 아니라 대상물 주변의 환경적인 요인에 따른 상대적인 값으로 표현될 수 있다. 예를 들어, 시인성이 높은 이미지는 고해상도(또는 고화질)의 이미지, 선명도를 높인 이미지, 벡터 그래픽스 이미지, 근거리에서의 이미지, 시간적으로 광량이 풍부할 경우 촬영한 이미지(즉, 주변 조도가 높은 상태에서 촬영한 이미지) 등이 있다.The electronic device 100 according to an embodiment may generate a simulation image for a visibility test and calculate a degree of visibility based on data obtained by tracking a gaze of a user viewing the simulation image. Visibility refers to the ability to recognize shapes and colors. That is, visibility refers to a property in which the shape or color of an object can be easily identified even from a long distance. For example, the greater the difference in brightness, the higher the visibility. Factors affecting visibility include resolution, sharpness, and brightness, and may be expressed as relative values according to environmental factors around the object, not absolute values. For example, an image with high visibility is a high-resolution (or high-definition) image, an image with increased sharpness, a vector graphics image, an image from a short distance, an image captured when the amount of light is temporally abundant (ie, in a state of high ambient light) images), etc.

전자 장치(100)는 다양한 지형 특징, 도로 환경 특징, 색 구성 등을 반영하여 획득한 복수 개의 베이스씬(base scene)(201) 중에서 하나(201a)를 선택할 수 있다. 베이스씬(201)은 다양한 구성요소로 정의될 수 있다. 예를 들어, 지형적인 특정(예: 공원, 도로, 교외, 시내 등), 도로 특징(예: 교차로, 직선로 등), 주변 혼잡도(예: 다수 보행자, 교통 혼잡 여부 등), 또는 다양한 색 구성(예: 단일 색 위주, 다양한 색 위주 등)에 의해 정의될 수 있다. 베이스씬(201)은 예를 들어, 보행 상황을 나타내는 일정 경로로 이동하면서 촬영한 360도 동영상일 수 있다. 일정 경로에는 하나 이상의 보행자를 위한 안내 표지판(202)을 포함할 수 있다. 보행자를 위한 안내 표지판(202)은 다양한 형태, 다양한 크기, 다양한 색으로 구성된 여러 가지 종류의 표지판으로 제작될 수 있다. 전자 장치(100)는 복수 개의 표지판(202) 중에서 하나(202b)를 선택할 수 있다. 전자 장치(100)는 선택한 베이스씬(201a)과 표지판(202b)를 정합하여, MR 영상(203)을 생성할 수 있다. MR 영상(203)은 영상에 포함된 표지판(202b)에 대한 시인성 정도를 평가하기 위한 시인성 테스트 시뮬레이션으로 활용될 수 있다.The electronic device 100 may select one 201a from among a plurality of base scenes 201 obtained by reflecting various terrain features, road environment features, color composition, and the like. The base scene 201 may be defined with various components. For example, topographical specifics (e.g., parks, roads, suburbs, downtowns, etc.), road features (e.g., intersections, straights, etc.), neighborhood congestion (e.g., many pedestrians, traffic jams, etc.), or different color schemes. (e.g. single color, various colors, etc.) The base scene 201 may be, for example, a 360-degree video taken while moving along a certain path representing a walking situation. A certain route may include one or more guide signs 202 for pedestrians. The guide sign 202 for pedestrians may be made of various types of signs composed of various shapes, sizes, and colors. The electronic device 100 may select one 202b from among a plurality of signs 202 . The electronic device 100 may generate the MR image 203 by matching the selected base scene 201a and the sign 202b. The MR image 203 may be used as a visibility test simulation for evaluating the degree of visibility of the sign 202b included in the image.

사용자(210)가 헤드 마운티드 디스플레이(220)를 착용하면, 전자 장치(100)는 베이스씬(201a)에 표지판(202b)을 정합하여 생성한 시인성 테스트 시뮬레이션(203)을 재생하고, 시인성 테스트 시뮬레이션(203)이 재생되는 동안 안구 추적 센서(140)를 통해 사용자의 시선을 추적한 데이터(204)를 획득할 수 있다. 사용자의 시선을 추적한 데이터(204)는, 영상에 표시된 표지판(202b)에 대한 사용자의 눈동자의 움직임, 동공의 크기 변화, 눈 깜박임 여부를 감지한 데이터를 포함한다.When the user 210 wears the head mounted display 220, the electronic device 100 reproduces the visibility test simulation 203 generated by matching the sign 202b to the base scene 201a, and the visibility test simulation ( While 203) is reproduced, data 204 tracking the user's gaze may be obtained through the eye tracking sensor 140 . The data 204 tracking the user's gaze includes the data of detecting the movement of the user's pupils, the change in size of the pupils, and blinking of the user's pupils with respect to the sign 202b displayed on the image.

전자 장치(100)는 시선 추적 데이터(204)를 분석하여 시인성 정도를 산출할 수 있다. 일 실시 예에서, 전자 장치(100)는 복수 개의 표지판(202)에 대하여 동일한 베이스씬(201a)에 각각 정합하여 생성한 복수 개의 시뮬레이션을 통해 시인성 평가를 하여 획득한 시선 추적 데이터들을 분석하여, 복수 개의 표지판(202) 중 가장 시인성이 높은 표지판을 선택할 수 있다.The electronic device 100 may analyze the gaze tracking data 204 to calculate the degree of visibility. In an embodiment, the electronic device 100 analyzes eye tracking data obtained by evaluating visibility through a plurality of simulations generated by matching a plurality of signs 202 to the same base scene 201a, Among the dog signs 202, a sign with the highest visibility may be selected.

도 3은 일 실시 예에 따른 시인성 테스트 시뮬레이션을 생성하는 방법의 순서도를 도시한다. 일 실시 예에 따른 전자 장치(100)는 표지판에 대한 시인성 평가를 하기 위한 시인성 테스트 시뮬레이션을 생성할 수 있다.3 shows a flow chart of a method of generating a visibility test simulation according to one embodiment. The electronic device 100 according to an embodiment may generate a visibility test simulation for evaluating visibility of a sign.

S301 단계에서, 전자 장치(100)는 카메라를 이용하여 촬영한 360도 동영상을 획득할 수 있다. 전자 장치(100는 메모리(120)에 저장된 복수 개의 베이스씬 중에서 상기 360도 동영상을 선택할 수 있다. 일 실시 예에서, 보행자에게 제공되는 안내 표지판에 대한 시인성 평가를 하기 위해서, 전자 장치(100)는 안내 표지판이 설치될 지점을 포함하여 보행 상황(보행 속도, 보행자 시야 범위, 보행자 도로, 보행시각에 따른 주변 환경 등)에 따라 일정 경로로 이동하면서 일정 시간 동안 카메라로 촬영한 360도 동영상을 획득할 수 있다. 또 다른 일 실시 예에서, 운전자에게 제공되는 안내 표지판에 대한 시인성 평가를 하기 위해서, 전자 장치(100)는 안내 표지판이 설치될 지점을 포함하여 운전 상황(운전 속도, 운전자 또는 동승자의 시야 범위, 차선 상황, 주행시각에 따른 주변 환경 등)에 따라 일정 경로로 이동하면서 카메라로 촬영한 360도 동영상을 획득할 수 있다. 다양한 실시 예에서, 전자 장치(100)는 시인성 테스트의 목적과 대상에 따라 이동 경로의 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 촬영시각에 따른 주변 환경 특징을 고려하여 360도 촬영 동영상을 획득할 수 있다. In step S301, the electronic device 100 may obtain a 360-degree video captured using a camera. The electronic device 100 may select the 360-degree video from a plurality of base scenes stored in the memory 120. In an embodiment, in order to evaluate the visibility of a guide sign provided to pedestrians, the electronic device 100 360-degree video captured by the camera for a certain period of time can be acquired while moving along a certain path according to the walking situation (walking speed, pedestrian view range, pedestrian road, surrounding environment according to the walking time, etc.) including the point where the guide sign will be installed. In another embodiment, in order to evaluate the visibility of the guidance sign provided to the driver, the electronic device 100 includes a point where the guidance sign is to be installed and driving conditions (driving speed, driver's or passenger's field of vision) A 360-degree video captured by a camera may be acquired while moving along a certain path according to a range, lane conditions, surrounding environment according to driving time, etc. In various embodiments, the electronic device 100 may perform a purpose and target of a visibility test. Accordingly, a 360-degree video clip may be acquired by considering the topographical characteristics of the moving route, the road characteristics, the degree of congestion, the color composition of the surrounding environment, and the characteristics of the surrounding environment according to the shooting time.

S302 단계에서, 전자 장치(100)는 360도 촬영 동영상에 포함된 기존 표지판을 제거할 수 있다. 일 실시 예에서, 전자 장치(100)는 머신러닝 기반 인페인팅(inpainting) 기술을 이용하여 영상에서 특정 객체의 영역을 세그먼트 단위로 지정하고, 해당 객체를 제거한 영역에 주변 배경에 맞춰 자연스럽게 영역을 채워줌으로써 기존 표지판 객체를 제거할 수 있다.In step S302, the electronic device 100 may remove the existing sign included in the 360-degree video. In an embodiment, the electronic device 100 designates an area of a specific object in an image in a segment unit using a machine learning-based inpainting technique, and naturally fills the area from which the object is removed to match the surrounding background. You can remove the existing sign object by giving

S303 단계에서, 전자 장치(100)는 시인성 테스트를 하기 위한 테스트 표지판을 360도 촬영 동영상에 정합할 수 있다. 일 실시 예에서, 전자 장치(100)는 테스트 표지판의 설치 위치, 크기, 광원에 따른 색, 그림자를 결정하여 테스트 표지판을 정합할 수 있다.In step S303, the electronic device 100 may match a test sign for a visibility test to a 360-degree video clip. In an embodiment, the electronic device 100 may match the test signs by determining the installation location, size, color according to the light source, and shadow of the test signs.

도 4는 일실시예에 따른 시인성 테스트 시뮬레이션의 구성요소를 도시한다.4 illustrates components of a visibility test simulation according to one embodiment.

일 실시 예에서, 전자 장치(100)는 실제 촬영 영상에 가상 객체로 테스트 표지판을 정합할 때, 가장 실제와 비슷하도록 위치, 광원, 그림자 등을 고려하여 설치 위치를 결정할 수 있다. 도 4의 (a)를 참조하면, 설치 위치는 주변 차선에 인접하여 결정될 수 있다. 도 4의 (b)를 참조하면, 광원(태양)을 중심으로 테스트 표지판의 명도가 결정될 수 있다. 도 4의 (c)를 참조하면, 광원에 따른 테스트 표지판의 그림자의 위치, 크기, 색이 결정될 수 있다. 전자 장치(100)는 실제 영상 속에 가상 객체(테스트 표지판)을 정합하여도 사용자가 실제 객체 인지 가상 객체인지 구분할 수 없도록, 실제 구성요소들과 매칭되도록 정합할 수 있다.In one embodiment, the electronic device 100 may determine the installation location by considering the location, light source, shadow, etc., so as to match the test sign as a virtual object to the actual captured image. Referring to (a) of FIG. 4 , an installation location may be determined adjacent to a peripheral lane. Referring to (b) of FIG. 4 , the brightness of the test sign may be determined based on the light source (the sun). Referring to (c) of FIG. 4 , the position, size, and color of the shadow of the test sign according to the light source may be determined. The electronic device 100 may match the virtual objects (test signs) with real components so that the user cannot distinguish between real objects and virtual objects even when matching virtual objects (test signs) with real images.

도 5는 일실시예에 따른 시인성 테스트 시뮬레이션 영상에서 AOI의 예시를 도시한다.5 illustrates an example of an AOI in a visibility test simulation image according to an embodiment.

일 실시 예에서, 전자 장치(100)는 360도 동영상을 시청하는 사용자의 시선을 추적한 데이터를 이용하여 시인성 정도를 산출할 수 있다. 도 5의 (a)를 참조하면 360도 동영상의 화면에 대해서, (b)와 같이 관심 영역(Area of Interest, AOI)를 구분하고, 시인성 평가 대상물(표지판)에 대한 영역을 AOI로 표시할 수 있다. 전자 장치(100)는 도 5의 (b)에 표시된 AOI를 이용하여 표지판(AOI 25번째 영역)의 시인성 정도를 산출할 수 있다.In an embodiment, the electronic device 100 may calculate the degree of visibility using data obtained by tracking the gaze of a user watching a 360-degree video. Referring to (a) of FIG. 5, on the screen of a 360-degree video, an area of interest (AOI) is divided as shown in (b), and the area for the visibility evaluation target (sign) can be displayed as an AOI. there is. The electronic device 100 may calculate the degree of visibility of the sign (the 25th area of the AOI) using the AOI shown in (b) of FIG. 5 .

시선 데이터(gaze data)는 고정(fixation)과 도약 안구 운동(saccade)으로 분류할 수 있다. Fixation은 사람이 한 점을 집중하여 볼 때의 시선을 의미하고, Saccade는 Fixation과 Fixation 사이에 움직이는 시선을 의미한다. 또한 눈 깜빡임(Blink), 동공의 크기(pupil diameter)을 포함할 수 있다. 시선 데이터 중 Fixation과 Saccade가 시인성과 높은 연관성을 갖는다. 예를 들어, 전자 장치(100)는 Fixation을 이용하여 시각적 특징 지도(Visual Saliency Map)과 주사 경로(Scan path)를 그릴 수 있다. 시각적 특징 지도는 사람이 어떤 지점을 유심히 보는지 나타내는 히트맵(heat map)이고, 주사 경로는 어떻게 Fixation이 움직였는지 보여주는 플롯(plot)이다. 전자 장치(100)는 시각적 특징 지도와 주사 경로를 수치화하여 어떤 대상물(표지판)이 가장 좋은 시인성을 가지는지 비교할 수 있다. 전자 장치(100)는 시선 엔트로피(Gaze entropy)를 이용하여 시각적 특징 지도와 주사 경로를 수치화할 수 있다. 시선 엔트로피는 시선의 움직임이 얼마나 무작위적인지 판단하는 기준이다. 시선 엔트로피가 높을수록 시선이 한 점에 머물러있는 빈도수가 적고, 시선 엔트로피가 낮을수록 시선이 한 지점에 집중되는 빈도수가 높음을 의미한다. 전자 장치(100)는 시선 엔트로피가 낮을수록 표지판의 시인성이 높다(좋다)라고 판단할 수 있다. 일 실시 예에서, 전자 장치(100)는 시선 데이터에 대한 5가지 파라미터 FFT(Time to First Fixation), FD(Total Duration of Fixations), SSGE(Scene Stationary Gaze Entropy), TSGE(Target Stationary Gaze Entropy), STGE(Scene Transition Gaze Entropy)를 기준으로 시인성을 판단할 수 있다. FFT는 사용자(시뮬레이션의 피 실험자)가 첫 번째로 표지판을 볼 때까지 걸린 시간, FD는 피 실험자의 시선이 표지판에 머물러있는 총 시간, SSGE는 전체 영상에서의 시선 데이터의 정지 엔트로피, TSGE는 전체 영상에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피, STGE는 전체 영상에서 이동 엔트로피를 의미한다. Gaze data can be classified into fixation and saccade. Fixation means the line of sight when a person concentrates on one point, and Saccade means the line of sight that moves between fixations. In addition, eye blinking (Blink) and pupil diameter (pupil diameter) may be included. Among gaze data, Fixation and Saccade have a high correlation with visibility. For example, the electronic device 100 may draw a visual feature map and a scan path using Fixation. The visual feature map is a heat map indicating which points a person is paying attention to, and the scan path is a plot showing how the fixation moved. The electronic device 100 digitizes the visual feature map and the scan path and compares which object (sign) has the best visibility. The electronic device 100 may digitize the visual feature map and the scan path using gaze entropy. Gaze entropy is a criterion for determining how random a gaze movement is. The higher the gaze entropy, the lower the frequency of the gaze staying at one point, and the lower the gaze entropy, the higher the frequency of the gaze being focused on one point. The electronic device 100 may determine that the visibility of the sign is high (good) as the gaze entropy is low. In an embodiment, the electronic device 100 includes five parameters for gaze data: Time to First Fixation (FFT), Total Duration of Fixations (FD), Scene Stationary Gaze Entropy (SSGE), Target Stationary Gaze Entropy (TSGE), Visibility can be judged based on STGE (Scene Transition Gaze Entropy). FFT is the time taken for the user (the subject of the simulation) to see the sign for the first time, FD is the total time the subject's gaze stays on the sign, SSGE is the stationary entropy of the gaze data in the entire image, TSGE is the overall Stationary entropy excluding the time the gaze stays on the sign in the video, STGE means moving entropy in the entire video.

시선 엔트로피는 0 에서 1 사이 값으로 표현할 수 있다. 0으로 근접할수록 한 점(Fixation)에 집중된 패턴을 보이고, 1로 근접할수록 무작위 분포를 가지는 패턴(분산된 패턴)을 보인다. 시선 엔트로피는 정지한 시선 엔트로피(stationary gaze entropy, SGE)

Figure 112021146799317-pat00001
와 전이 시선 엔트로피(transition gaze entropy, TGE)
Figure 112021146799317-pat00002
로 정의할 수 있다. SGE는 특정 지점에 시선이 머문 빈도를 계산하고, TGE는 특정 지점에 시선이 머문 빈도와 함께 다른 지점으로 시선이 이동하는 빈도까지 계산한다. 전체 시뮬레이션에 대한 SGE(Scene Stationary Gaze Entropy, SSGE)와 전체 시뮬레이션 속 표지판에 대한 SGE(Target Stationary Gaze Entropy, TSGE)를 계산할 수 있다.Gaze entropy can be expressed as a value between 0 and 1. The closer to 0 shows a pattern concentrated on one point (fixation), the closer to 1 shows a pattern with a random distribution (distributed pattern). Gaze entropy is stationary gaze entropy (SGE)
Figure 112021146799317-pat00001
and transition gaze entropy (TGE)
Figure 112021146799317-pat00002
can be defined as SGE calculates the frequency of gaze staying at a specific point, and TGE calculates the frequency of gaze moving to another point along with the frequency of gaze staying at a specific point. You can calculate SGE (Scene Stationary Gaze Entropy, SSGE) for the entire simulation and Target Stationary Gaze Entropy (TSGE) for the signs in the entire simulation.

AOI 세트

Figure 112021146799317-pat00003
, Fixation 시퀀스
Figure 112021146799317-pat00004
에 대해서,
Figure 112021146799317-pat00005
의 전이 확률
Figure 112021146799317-pat00006
, 정지 확률
Figure 112021146799317-pat00007
은 하기 수학식 1과 같이 계산할 수 있다.AOI set
Figure 112021146799317-pat00003
, Fixation sequence
Figure 112021146799317-pat00004
about,
Figure 112021146799317-pat00005
transition probability of
Figure 112021146799317-pat00006
, the probability of stopping
Figure 112021146799317-pat00007
can be calculated as in Equation 1 below.

Figure 112021146799317-pat00008
Figure 112021146799317-pat00008

Figure 112021146799317-pat00009
는 i번째 AOI에서 j번째 AOI로 이동한 Fixation의 개수,
Figure 112021146799317-pat00010
는 i번째 AOI에 위치한 Fixation의 개수,
Figure 112021146799317-pat00011
은 해당 영상에서 피험자의 전체 Fixation 개수를 나타낸다. 전자 장치(100)는 도 5의 (a)를 수직하게 24등분한 각 영역을 AOI로 설정하고, 표지판이 위치한 공간을 25번째 AOI로 설정할 수 있다. 전자 장치(100)는 정지한 시선 엔트로피(SGE)를 반복 계산하여 SSGE를 계산하고, 전이 시선 엔트로피(TGE)를 계산하여 STGE를 계산한다. TSGE는 하기 수학식 2와 같이 정지한 시선 엔트로피(SGE)를 계산할 때, 표지판 위에 있는 Fixation을 제외하여 계산할 수 있다.
Figure 112021146799317-pat00009
is the number of Fixations moved from the i-th AOI to the j-th AOI,
Figure 112021146799317-pat00010
is the number of Fixations located in the ith AOI,
Figure 112021146799317-pat00011
represents the total number of fixations of the subject in the corresponding image. The electronic device 100 may set each area obtained by dividing (a) of FIG. 5 vertically into 24 equal parts as the AOI, and may set the space where the sign is located as the 25th AOI. The electronic device 100 calculates SSGE by iteratively calculating still gaze entropy (SGE), and calculates STGE by calculating transition gaze entropy (TGE). TSGE can be calculated by excluding the fixation on the sign when calculating the still gaze entropy (SGE) as shown in Equation 2 below.

Figure 112021146799317-pat00012
Figure 112021146799317-pat00012

Figure 112021146799317-pat00013
Figure 112021146799317-pat00013

Figure 112021146799317-pat00014
는 표지판(25번째 AOI)에 위치한 Fixation의 개수를 나타낸다.
Figure 112021146799317-pat00014
represents the number of Fixations located on the sign (the 25th AOI).

도 6은 일실시예에 따른 시인성 테스트 시뮬레이션에 대한 시선 추적 데이터의 평가 분석 그래프를 도시한다. 일 실시 예에서, 전자 장치(100)는 시선 데이터에 대한 5가지 파라미터(FFT, FD, SSGE, TSGE, STGE)를 기준으로 테스트 표지판에 대한 시인정 정도를 판단할 수 있다. 시인성은 상대적인 값으로, 전자 장치(100)는 복수 개의 테스트 표지판에 대하여 산출한 파라미터 값을 비교하여 가장 시인성이 좋은 표지판을 선택할 수 있다. 예를 들어, 4가지 테스트 표지판(601 내지 604)에 대한 시인성을 평가하기 위해, 베이스씬에 4가지 테스트 표지판을 각각 정합한 4개의 시인성 테스트 시뮬레이션을 사용자에 테스트한 결과 시선 데이터를 분석한 결과를 도 6과 같이 그래프로 도시할 수 있다. 테스트 표지판(601 내지 604)는 각각 디자인, 색상, 모양이 상이하게 제작되었다. 전자 장치(100)는 시선 데이터에 대한 FFT, SSGE, TSGE, STGE 파라미터 값이 작을수록 시인성이 높다(좋다)고 평가할 수 있다. FD의 경우 값이 클수록 눈에 띄기 유리하기 때문에 그래프에서 덧셈의 역원(1-FD)을 도시하였다. 전자 장치(100)는 그래프 영역의 크기가 제일 작은 4번째 테스트 표지판(604)이 전체 테스트 표지판 중에서 시인성이 제일 높다고 판단할 수 있다.6 illustrates an evaluation analysis graph of gaze tracking data for a visibility test simulation according to an embodiment. In an embodiment, the electronic device 100 may determine the degree of visibility of the test sign based on five parameters (FFT, FD, SSGE, TSGE, and STGE) of the gaze data. Visibility is a relative value, and the electronic device 100 may compare parameter values calculated for a plurality of test signs to select a sign with the highest visibility. For example, in order to evaluate the visibility of the four test signs 601 to 604, four visibility test simulations in which the four test signs are matched to the base scene are tested on the user, and the result of analyzing the gaze data is obtained. It can be shown graphically as shown in FIG. 6 . The test signs 601 to 604 were manufactured with different designs, colors, and shapes, respectively. The electronic device 100 may evaluate that the visibility is high (good) as the FFT, SSGE, TSGE, and STGE parameter values of the gaze data are small. In the case of FD, the larger the value, the more noticeable it is, so the inverse of addition (1-FD) is shown in the graph. The electronic device 100 may determine that the fourth test sign 604 having the smallest size of the graph area has the highest visibility among all test signs.

도 7은 일실시예에 따른 시인성 테스트 시뮬레이션을 이용한 최적의 표지판 선택 방법의 순서도를 도시한다. 일 실시 예에서, 전자 장치(100)는 테스트하고자 하는 표지판, 표지판 설치 환경에 따라 시인성 테스트 시뮬레이션을 설정할 수 있다.7 is a flowchart of an optimal sign selection method using visibility test simulation according to an embodiment. In an embodiment, the electronic device 100 may set a visibility test simulation according to a sign to be tested and a sign installation environment.

S701 단계에서, 전자 장치(100)는 시인성 테스트 시뮬레이션 설정에 따라 메모리(120)에 저장된 베이스씬 중 하나를 선택할 수 있다. 시인성 테스트 시뮬레이션 설정은, 테스트 상황, 지형적 특징, 도로 특징, 주변 혼잡도, 주변 환경의 색 구성, 광원 등의 구성요소에 대한 설정 값으로 결정될 수 있다. 예를 들어, 보행 상황에 대하여, 도로 변 인도, 보행자가 많은 경우, 주변 환경은 주로 녹색인 경우, 광원은 태양으로 시인성 테스트 시뮬레이션 설정을 할 수 있다. 전자 장치(100)는 시뮬레이션 설정을 만족하는 베이스씬을 선택할 수 있다.In step S701, the electronic device 100 may select one of the base scenes stored in the memory 120 according to visibility test simulation settings. Visibility test simulation settings may be determined as set values for components such as a test situation, topographical characteristics, road characteristics, surrounding congestion, color composition of the surrounding environment, and light source. For example, with respect to a walking situation, when there are many pedestrians on a sidewalk, when the surrounding environment is mainly green, the light source may be set for the visibility test simulation to be the sun. The electronic device 100 may select a base scene that satisfies simulation settings.

S702 단계에서, 전자 장치(100)는 복수 개의 테스트 대상 표지판을 포함하는 테스트 케이스를 생성할 수 있다. 전자 장치(100)는 선택된 베이스씬에 복수 개의 테스트 대상 표지판을 각각 정합하여, 복수 개의 시인성 테스트 시뮬레이션을 생성할 수 있다.In step S702, the electronic device 100 may generate a test case including a plurality of test target signs. The electronic device 100 may generate a plurality of visibility test simulations by matching a plurality of test target signs to the selected base scene, respectively.

S703 단계에서, 전자 장치(100)는 테스트 케이스마다 사용자의 시선 데이터를 획득할 수 있다. 전자 장치(200)는 테스트 케이스의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 안구 추적 센서(140)를 이용하여 사용자의 시선 데이터를 획득할 수 있다. 전자 장치(200)는 복수의 사용자에 대하여 테스트를 수행하여 각 시인성 테스트 시뮬레이션마다 복수 개의 시선 데이터를 획득할 수 있다.In step S703, the electronic device 100 may acquire user gaze data for each test case. The electronic device 200 may obtain gaze data of the user using the eye tracking sensor 140 while reproducing each visibility test simulation of the test case. The electronic device 200 may obtain a plurality of gaze data for each visibility test simulation by performing a test on a plurality of users.

S704 단계에서, 전자 장치(100)는 테스트 케이스에 대한 복수 개의 시선 데이터에 대한 시인성 파라미터(FFT, FD, SSGE, TSGE, STGE)를 산출할 수 있다. 전자 장치(100)는 앞서 도 5 및 도 6에서 설명한 방법에 따라 시인성 파라미터 값을 계산할 수 있다.In step S704, the electronic device 100 may calculate visibility parameters (FFT, FD, SSGE, TSGE, STGE) for a plurality of gaze data of the test case. The electronic device 100 may calculate the visibility parameter value according to the method described above with reference to FIGS. 5 and 6 .

S705 단계에서, 전자 장치(100)는 복수 개의 테스트 대상 표지판의 시인성 파라미터 값을 비교하여, 가장 시인성이 높은 표지판을 최종 표지판으로 선택할 수 있다.In step S705, the electronic device 100 may compare visibility parameter values of a plurality of test target signs and select a sign with the highest visibility as a final sign.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 안는 한, 복수의 표현을 ??할 수 있다. 본 문서에서 “A 또는 B”, “A 및/또는 B 중 적어도 하나”, “A, B 또는 C”, 또는 “A, B 및/또는 C 중 적어도 하나” 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. “제1”, “제2”, “첫째”, 또는 “둘째” 등의 표현들은 해당 구성요소들을 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions can be plural unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C”, or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as “first,” “second,” “first,” or “second” may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).

본 문서에서, "~하도록 설정된(adapted to or configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 설정된 (또는 구성된) 프로세서"는 해당 동작들을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치(예: 메모리 120)에 저장된 하나 이상의 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 AP)를 의미할 수 있다.In this document, "adapted to or configured to" means "adapted to or configured to" depending on the situation, for example, hardware or software "adapted to," "having the ability to," "changed to," ""made to," "capable of," or "designed to" can be used interchangeably. In some contexts, the expression "device configured to" can mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor set up (or configured) to perform A, B, and C" may include a dedicated processor (eg, an embedded processor) to perform those operations, or one stored in a memory device (eg, memory 120). By executing the above programs, it may mean a general-purpose processor (eg, CPU or AP) capable of performing corresponding operations.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구성된 유닛(unit)을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, parts, or circuits, for example. can A “module” may be an integrally constructed component or a minimal unit or part thereof that performs one or more functions. A "module" may be implemented mechanically or electronically, for example, a known or future developed application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), or A programmable logic device may be included.

다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(120))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(110))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.At least some of the devices (eg, modules or functions thereof) or methods (eg, operations) according to various embodiments are instructions stored in a computer-readable storage medium (eg, the memory 120) in the form of program modules. can be implemented as When the command is executed by a processor (eg, the processor 110), the processor may perform a function corresponding to the command. Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magneto-optical media (e.g. floptical disks), built-in memory, etc.) The instruction may include code generated by a compiler or code executable by an interpreter.

다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램 모듈) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소를 더 포함할 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램 모듈)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each component (eg, module or program module) according to various embodiments may be composed of a single object or a plurality of entities, and some sub-components among the aforementioned corresponding sub-components may be omitted, or other sub-components may be used. can include more. Alternatively or additionally, some components (eg, modules or program modules) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration. Operations performed by modules, program modules, or other components according to various embodiments are executed sequentially, in parallel, repetitively, or heuristically, or at least some operations are executed in a different order, omitted, or other operations. this may be added.

100: 전자 장치
110: 프로세서
120: 메모리
130: 디스플레이
140: 센서
210: 사용자
220: HMD
100: electronic device
110: processor
120: memory
130: display
140: sensor
210: user
220: HMD

Claims (15)

전자 장치에 있어서,
디스플레이;
안구 추적 센서;
명령어들(instructions)을 저장하는 메모리; 및
적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는,
제1 경로를 따라 이동하면서 촬영한 동영상의 제1 위치에 적어도 두 개의 테스트 표지판을 각각 정합하여 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하고,
상기 디스플레이를 통해 상기 적어도 두 개의 시인성 테스트 시뮬레이션을 재생하는 동안, 상기 안구 추적 센서를 통해 사용자의 각각의 시선 데이터를 획득하고, 및
상기 각각의 시선 데이터에 기반하여 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 전자 장치.
In electronic devices,
display;
eye tracking sensor;
memory for storing instructions; and
including at least one processor, wherein the at least one processor comprises:
generating at least two visibility test simulations by matching at least two test signs to a first position of a video captured while moving along a first path, respectively;
Obtain gaze data of each user through the eye tracking sensor while reproducing the at least two visibility test simulations through the display; and
comparing visibility parameters for the at least two test signs based on the respective gaze data;
The visibility parameter is the time it takes for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and transition entropy in the entire simulation (Scene Transition Gaze Entropy) An electronic device.
제1항에 있어서,
상기 적어도 하나의 프로세서가 상기 테스트 표지판의 크기, 상기 제1 위치와 관련된 광원, 상기 광원에 따른 상기 테스트 표지판의 명도, 또는 상기 테스트 표지판의 그림자의 크기 중 적어도 하나를 고려하여 상기 제1 위치에 상기 테스트 표지판을 정합하는, 전자 장치.
According to claim 1,
The at least one processor determines the size of the test sign at the first location by considering at least one of a size of the test sign, a light source related to the first position, brightness of the test sign according to the light source, or a size of a shadow of the test sign. Electronic device, matching test signs.
제1항에 있어서,
상기 시인성 파라미터는 시선 엔트로피 값으로 정의되고, 상기 시선 엔트로피는 상기 시선 데이터의 고정(fixation) 및 도약 안구 운동(saccade)으로 결정되는, 전자 장치.
According to claim 1,
The visibility parameter is defined as a gaze entropy value, and the gaze entropy is determined by fixation and saccade of the gaze data.
삭제delete 제1항에 있어서,
상기 적어도 하나의 프로세서가 상기 동영상의 화면을 일정한 면적의 영역으로 구분한 복수 개의 관심 영역(AOI)과 테스트 표지판에 대한 관심 영역에 대하여 상기 시선 엔트로피를 산출하여 상기 시인성 파라미터를 계산하는, 전자 장치.
According to claim 1,
Wherein the at least one processor calculates the visibility parameter by calculating the gaze entropy for a plurality of regions of interest (AOIs) in which the screen of the video is divided into regions of a certain area and a region of interest for a test sign.
제1항에 있어서,
상기 디스플레이 및 상기 안구 추적 센서는 헤드 마운티드 디스플레이(Head Mounted Display, HMD)의 형태인, 전자 장치.
According to claim 1,
The electronic device, wherein the display and the eye tracking sensor are in the form of a Head Mounted Display (HMD).
제1항에 있어서,
상기 동영상은 360도 뷰를 제공하는 3차원 동영상이고, 상기 시인성 테스트 시뮬레이션은 혼합 현실(MR)기반으로 생성되는, 전자 장치.
According to claim 1,
The video is a 3D video providing a 360-degree view, and the visibility test simulation is generated based on mixed reality (MR).
MR 시뮬레이션 기반 표지판 시인성을 평가하는 방법에 있어서,
복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 단계;
상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계;
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 단계;
상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 단계; 및
상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 단계
를 포함하고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 방법.
In the method for evaluating sign visibility based on MR simulation,
selecting a first base scene captured by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes;
generating at least two visibility test simulations by matching at least two test signs with the first base scene, respectively;
acquiring gaze data of a user while reproducing the at least two visibility test simulations, respectively;
comparing visibility parameters for the at least two test signs based on the respective gaze data; and
Selecting a sign with the highest visibility among the at least two test signs
including,
The visibility parameter is the time it takes for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and moving entropy in the entire simulation (Scene Transition Gaze Entropy) Method.
제8항에 있어서,
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 단계는,
상기 테스트 표지판의 크기, 광원, 상기 광원에 따른 상기 테스트 표지판의 명도, 또는 상기 테스트 표지판의 그림자의 크기 중 적어도 하나를 고려하여 제1 위치에 상기 테스트 표지판을 정합하는, 방법.
According to claim 8,
Generating the at least two visibility test simulations,
Matching the test sign to the first position in consideration of at least one of a size of the test sign, a light source, brightness of the test sign according to the light source, or a size of a shadow of the test sign.
제8항에 있어서,
상기 시인성 파라미터는 시선 엔트로피 값으로 정의되고, 상기 시선 엔트로피는 상기 시선 데이터의 고정(fixation) 및 도약 안구 운동(saccade)으로 결정되는, 방법.
According to claim 8,
The method of claim 1 , wherein the visibility parameter is defined as a gaze entropy value, and the gaze entropy is determined by fixation and saccade of the gaze data.
삭제delete 제8항에 있어서,
상기 시인성 파라미터를 비교하는 단계는,
상기 적어도 두 개의 시인성 테스트 시뮬레이션 각각의 화면을 일정한 면적의 영역으로 구분한 복수 개의 관심 영역(AOI)과 테스트 표지판에 대한 관심 영역에 대하여 상기 시선 엔트로피를 산출하여 상기 시인성 파라미터를 각각 계산하는, 방법.
According to claim 8,
Comparing the visibility parameters,
Calculating the visibility parameter by calculating the gaze entropy for a plurality of regions of interest (AOIs) in which the screens of each of the at least two visibility test simulations are divided into regions of a certain area and the region of interest for the test sign, respectively. Method.
제8항에 있어서,
상기 사용자의 시선 데이터를 각각 획득하는 단계는, 상기 사용자가 착용한 헤드 마운티드 디스플레이(HMD)를 통해 상기 시인성 테스트 시뮬레이션을 각각 재생하고, 안구 추적 센서를 통해 사용자의 시선 데이터를 수집하는, 방법.
According to claim 8,
The acquiring of each user's gaze data includes reproducing the visibility test simulation through a head mounted display (HMD) worn by the user, and collecting the user's gaze data through an eye tracking sensor.
제8항에 있어서,
상기 베이스 씬은 360도 뷰를 제공하는 3차원 동영상이고, 상기 시인성 테스트 시뮬레이션은 혼합 현실(MR) 기반으로 생성되는, 방법.
According to claim 8,
The base scene is a 3D video providing a 360 degree view, and the visibility test simulation is generated based on mixed reality (MR).
컴퓨터 판독 가능한 명령어들을 저장하는 기록 매체에 있어서, 상기 명령어들은 전자 장치에 의해 실행 시 상기 전자 장치로 하여금:
복수 개의 베이스 씬(base scene) 중에서 테스트 상황에 따른 제1 경로를 따라 정해진 시간 동안 카메라로 촬영한 제1 베이스 씬을 선택하는 동작;
상기 제1 베이스 씬에 적어도 두 개의 테스트 표지판을 각각 정합하여, 적어도 두 개의 시인성 테스트 시뮬레이션을 생성하는 동작;
상기 적어도 두 개의 시인성 테스트 시뮬레이션을 각각 재생하는 동안, 사용자의 시선 데이터를 각각 획득하는 동작;
상기 각각의 시선 데이터에 기반하여, 상기 적어도 두 개의 테스트 표지판에 대한 시인성 파라미터를 비교하는 동작; 및
상기 적어도 두 개의 테스트 표지판 중 가장 시인성이 높은 표지판을 선택하는 동작을 포함하도록 설정되고,
상기 시인성 파라미터는 사용자가 첫 번째로 테스트 표지판을 볼 때까지 걸린 시간(Time to First Fixation), 사용자의 시선이 테스트 표지판에 머물러 있는 총 시간(Total Duration of Fixations), 전체 시뮬레이션에서의 시선 데이터의 정지 엔트로피(Scene Stationary Gaze Entropy), 전체 시뮬레이션에서 시선이 표지판에 머물러 있던 시간을 제외한 정지 엔트로피(Target Stationary Gaze Entropy), 전체 시뮬레이션에서 이동 엔트로피(Scene Transition Gaze Entropy) 중 적어도 하나를 포함하는, 기록매체.
A recording medium storing computer readable instructions, which when executed by an electronic device cause the electronic device to:
selecting a first base scene captured by a camera for a predetermined time along a first path according to a test situation from among a plurality of base scenes;
generating at least two visibility test simulations by matching at least two test signs with the first base scene;
acquiring gaze data of the user while reproducing the at least two visibility test simulations, respectively;
comparing visibility parameters of the at least two test signs based on each of the gaze data; and
It is set to include an operation of selecting a sign with the highest visibility among the at least two test signs,
The visibility parameter is the time it took for the user to see the test sign for the first time (Time to First Fixation), the total time the user's gaze stays on the test sign (Total Duration of Fixations), and the gaze data stop in the entire simulation. At least one of entropy (Scene Stationary Gaze Entropy), stop entropy excluding the time the gaze stayed on the sign in the entire simulation (Target Stationary Gaze Entropy), and transition entropy in the entire simulation (Scene Transition Gaze Entropy). Recording medium.
KR1020210182072A 2021-12-17 2021-12-17 Device and method for evaluation of sign visibility based on mr simulation KR102542977B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210182072A KR102542977B1 (en) 2021-12-17 2021-12-17 Device and method for evaluation of sign visibility based on mr simulation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210182072A KR102542977B1 (en) 2021-12-17 2021-12-17 Device and method for evaluation of sign visibility based on mr simulation

Publications (1)

Publication Number Publication Date
KR102542977B1 true KR102542977B1 (en) 2023-06-13

Family

ID=86762682

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210182072A KR102542977B1 (en) 2021-12-17 2021-12-17 Device and method for evaluation of sign visibility based on mr simulation

Country Status (1)

Country Link
KR (1) KR102542977B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180132922A (en) * 2016-05-30 2018-12-12 엘지전자 주식회사 Vehicle display devices and vehicles
KR20190067366A (en) * 2017-12-07 2019-06-17 삼성전자주식회사 Vehicle and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180132922A (en) * 2016-05-30 2018-12-12 엘지전자 주식회사 Vehicle display devices and vehicles
KR20190067366A (en) * 2017-12-07 2019-06-17 삼성전자주식회사 Vehicle and control method thereof

Similar Documents

Publication Publication Date Title
US20210357670A1 (en) Driver Attention Detection Method
US10909697B2 (en) Image processing apparatus, monitoring system, image processing method,and program
JP2020526821A (en) Extraction of visual data, depth data, and micro-vibration data using an integrated imaging device
Langner et al. Traffic awareness driver assistance based on stereovision, eye-tracking, and head-up display
JP6318470B2 (en) Display control device, display control method, and recording medium
JP2011505610A (en) Method and apparatus for mapping distance sensor data to image sensor data
US20160262614A1 (en) Eye gaze detection supporting device and eye gaze detection supporting method
KR102641117B1 (en) Method and apparatus of augmenting image
JP4609603B2 (en) 3D information display device and 3D information display method
WO2017169273A1 (en) Information processing device, information processing method, and program
CN105659200A (en) Method, apparatus, and system for displaying graphical user interface
WO2019097595A1 (en) Vehicle external communication apparatus, vehicle external communication method, information processing device, and vehicle external communication program
US11004273B2 (en) Information processing device and information processing method
JP6221292B2 (en) Concentration determination program, concentration determination device, and concentration determination method
EP2976990B1 (en) Pupil detection device and pupil detection method
KR102542977B1 (en) Device and method for evaluation of sign visibility based on mr simulation
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
KR20140014868A (en) Gaze tracking apparatus and method
Lochbihler et al. Assessing Driver Gaze Location in a Dynamic Vehicle Environment
Liu et al. Saliency difference based objective evaluation method for a superimposed screen of the HUD with various background
US20210290133A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP7261370B2 (en) Information processing device, information processing system, information processing method, and computer program
JP5256508B2 (en) 3D information calculation apparatus and 3D information calculation method
Malawski Driver assistance system using augmented reality headset
JP2009110065A (en) Driving support device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant