WO2024034895A1 - 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치 - Google Patents
디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치 Download PDFInfo
- Publication number
- WO2024034895A1 WO2024034895A1 PCT/KR2023/010307 KR2023010307W WO2024034895A1 WO 2024034895 A1 WO2024034895 A1 WO 2024034895A1 KR 2023010307 W KR2023010307 W KR 2023010307W WO 2024034895 A1 WO2024034895 A1 WO 2024034895A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- area
- electronic device
- processor
- driving time
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 38
- 239000000696 magnetic material Substances 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 description 59
- 210000003128 head Anatomy 0.000 description 33
- 238000010586 diagram Methods 0.000 description 22
- 210000001747 pupil Anatomy 0.000 description 21
- 230000008569 process Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 206010052143 Ocular discomfort Diseases 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 102100024884 Prefoldin subunit 3 Human genes 0.000 description 3
- 108050006241 Prefoldin subunit 3 Proteins 0.000 description 3
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 3
- 230000003111 delayed effect Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 229910002804 graphite Inorganic materials 0.000 description 2
- 239000010439 graphite Substances 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
Definitions
- the descriptions below relate to electronic devices and a method of adjusting the driving timing of the display panel.
- electronic devices are moving away from the uniform rectangular shape and are gradually being transformed into various shapes.
- electronic devices are gradually developing into wearable electronic devices that can be worn on any part of the body.
- Wearable electronic devices may include head mounted display (HMD) devices that can be worn on the head, such as glasses.
- a wearable electronic device may be an HMD device and may include a video see-through (VST) device that captures a real environment using a camera and displays the captured image in an overlapping form on a virtual image.
- VST video see-through
- the VST device may be worn on the user's head, and when worn, the display may be arranged in response to the user's eye position.
- the VST device may include a first display corresponding to the user's left eye and a second display corresponding to the user's right eye.
- An HMD device worn on the user's head may be difficult to position while being perfectly level during the assembly process for two displays.
- the two displays include a first display and a second display, and each display can be designed individually.
- an alignment error eg, vertical misalignment phenomenon
- the user can check a displayed screen (eg, an external environment captured using a camera) through a first display disposed corresponding to the left eye and a second display disposed corresponding to the right eye.
- the first screen displayed on the first display and the second screen displayed on the second display are at least partially integrated, so the user can visually perceive them as one screen.
- the occurrence of a placement error for the first display and the second display may mean that the first screen and the second screen are not displayed on the same line (eg, reference horizontal line). In a situation where the first screen and the second screen are not level with each other, the user may experience fatigue and discomfort.
- an electronic device worn on a user's head includes a first display disposed corresponding to the left eye, a second display disposed corresponding to the right eye, a memory, and the first display, the second display, and the memory. It may include an operatively coupled processor.
- the processor may check placement error information between the first display and the second display. If the confirmed placement error information exceeds a set threshold, the processor may check the first driving time for the first display and the second driving time for the second display.
- the processor may adjust at least one of the first driving time and the second driving time based on the confirmed placement error information.
- the processor may display at least one content through the first display and the second display based on the adjusted driving time point.
- the arrangement error information between the first display disposed corresponding to the left eye and the second display disposed corresponding to the right eye is provided. May include confirmation actions.
- the method according to one embodiment may include an operation of confirming a first driving time for the first display and a second driving time for the second display when the confirmed placement error information exceeds a set threshold.
- the method according to one embodiment may include an operation of adjusting at least one of the first driving time and the second driving time based on the confirmed placement error information.
- the method according to one embodiment may include displaying at least one content through the first display and the second display based on the adjusted driving point of view.
- a non-transitory computer-readable storage medium (or computer program product) storing one or more programs may be described.
- one or more programs when executed by a processor of an electronic device, include an operation of checking placement error information between a first display disposed corresponding to the left eye and a second display disposed corresponding to the right eye; When the placement error information exceeds a set threshold, an operation of confirming a first driving time for the first display and a second driving time for the second display, based on the confirmed placement error information, a first driving time and It may include instructions for performing an operation of adjusting at least one of the second driving viewpoints and displaying at least one content through the first display and the second display based on the adjusted driving viewpoint. there is.
- the electronic device may check the placement error (e.g., distortion along the vertical direction) with respect to the first display and the second display, and display an error in the first display and the second display.
- Setting information for at least one of the first display and the second display can be adjusted so that the horizontal level of the screen matches.
- the electronic device can relieve the user's visual discomfort by adjusting the horizontal levels of the first display and the second display to be substantially the same.
- Various embodiments provide information on a plurality of displays (e.g., a first display disposed corresponding to the left eye, a second display disposed corresponding to the right eye) disposed on an electronic device (e.g., a VST device worn on the user's head).
- Setting information for a plurality of displays can be adjusted so that the horizontal levels match.
- the electronic device may adjust the display area of the display so that the first screen of the first display and the second screen of the second display are displayed along substantially the same line (e.g., a reference horizontal line), reducing visual fatigue and discomfort for the user. can be reduced. Users may become more immersed in the displayed content.
- FIG. 1 is a block diagram of an electronic device in a network environment according to embodiments of the present disclosure.
- FIG. 2 is a diagram illustrating an example of an electronic device according to an embodiment of the present disclosure.
- FIG. 3A is a diagram illustrating the front of a display assembly according to an embodiment of the present disclosure.
- FIG. 3B is a diagram illustrating the rear of a display assembly according to an embodiment of the present disclosure.
- FIG. 3C is a diagram illustrating an example of visually displaying content on an electronic device worn on a user's head according to an embodiment of the present disclosure.
- Figure 4 is a block diagram of an electronic device according to an embodiment of the present disclosure.
- FIG. 5 is a flowchart illustrating a method of adjusting a driving timing of a display in an electronic device worn on a user's head according to an embodiment of the present disclosure.
- FIG. 6 is an exemplary diagram illustrating the physical form of a display panel and a display area of the display panel according to an embodiment of the present disclosure.
- FIG. 7A is a first graph showing driving timings corresponding to the first display and the second display, respectively, according to an embodiment of the present disclosure.
- FIG. 7B is a second graph illustrating the driving timing adjusted so that the start time for the display area matches each of the first display and the second display according to an embodiment of the present disclosure.
- FIG. 8A is an example diagram illustrating a screen visually displayed based on the first graph of FIG. 7A according to an embodiment of the present disclosure.
- FIG. 8B is an example diagram illustrating a screen visually displayed based on the second graph of FIG. 7B according to an embodiment of the present disclosure.
- FIG. 9A is a diagram illustrating the arrangement structure of a Hall sensor when checking an arrangement error using a Hall sensor according to an embodiment of the present disclosure.
- FIG. 9B is a diagram illustrating a situation in which placement errors for a first display and a second display are checked using at least one hall sensor according to an embodiment of the present disclosure.
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
- the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
- a first network 198 e.g., a short-range wireless communication network
- a second network 199 e.g., a second network 199.
- the electronic device 101 may communicate with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
- at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
- some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
- the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- software e.g., program 140
- the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
- the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
- a main processor 121 e.g., a central processing unit or an application processor
- auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
- the electronic device 101 includes a main processor 121 and a secondary processor 123
- the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
- the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
- the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
- co-processor 123 e.g., image signal processor or communication processor
- may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
- the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
- Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself, where artificial intelligence is performed, or may be performed through a separate server (e.g., server 108).
- Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
- An artificial intelligence model may include multiple artificial neural network layers.
- Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
- artificial intelligence models may additionally or alternatively include software structures.
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
- Memory 130 may include volatile memory 132 or non-volatile memory 134.
- the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
- the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
- the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
- the sound output module 155 may output sound signals to the outside of the electronic device 101.
- the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
- the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
- the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
- the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
- the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
- the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
- the electronic device 102 e.g., speaker or headphone
- the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
- the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
- the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital Card interface
- audio interface audio interface
- connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture still images and moving images.
- the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 can manage power supplied to the electronic device 101.
- the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101.
- the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
- processor 120 e.g., an application processor
- the communication module 190 may be a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
- a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
- the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
- the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
- subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
- IMSI International Mobile Subscriber Identifier
- the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
- NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
- the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
- the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
- the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
- the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
- Peak data rate e.g., 20 Gbps or more
- loss coverage e.g., 164 dB or less
- U-plane latency e.g., 164 dB or less
- the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
- the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
- the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
- other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
- RFIC radio frequency integrated circuit
- a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
- a first side e.g., bottom side
- a designated high frequency band e.g., mmWave band
- a plurality of antennas e.g., array antennas
- peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- signal e.g. commands or data
- commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
- Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
- all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
- the electronic device 101 may perform the function or service instead of executing the function or service on its own.
- one or more external electronic devices may be requested to perform at least part of the function or service.
- One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
- the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
- cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
- the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
- the external electronic device 104 may include an Internet of Things (IoT) device.
- Server 108 may be an intelligent server using machine learning and/or neural networks.
- the external electronic device 104 or server 108 may be included in the second network 199.
- the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
- FIG. 2 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure.
- FIG. 3A is a diagram illustrating the front of a display assembly according to an embodiment of the present disclosure.
- FIG. 3B is a diagram illustrating the rear of a display assembly according to an embodiment of the present disclosure.
- FIG. 3C is a diagram illustrating an example of visually displaying content on an electronic device worn on a user's head according to an embodiment of the present disclosure.
- the electronic device 101 (e.g., the electronic device 101 of FIG. 1) is a VST (video see-through) corresponding to one of the head mounted display (HMD) devices. through) device.
- the electronic device 101 may be worn on the user's head, and a display module (eg, display module 160 of FIG. 1) may be disposed in response to the user's eye position.
- the display module 160 may include a first display 211 corresponding to the left eye and a second display 212 corresponding to the right eye.
- the electronic device 101 displays an image captured using a camera (e.g., the camera module 180 of FIG. 1) through the display module 160 (e.g., the first display 211 and the second display 212). It can be displayed.
- the camera module 180 may be arranged to face substantially the same direction as the user's gaze direction. For example, when a user wears the electronic device 101, the user does not check the actual surrounding environment with his or her eyes, but rather captures an image displayed through the display module 160 (e.g., using the camera module 180). Based on the video), you can check the actual surrounding environment. For example, the first camera 221 disposed corresponding to the user's left eye may capture a first image of the external environment, and the second camera 222 disposed corresponding to the user's right eye may capture a first image of the external environment. A second image can be taken.
- the electronic device 101 can display the first image through a first display 211 corresponding to the left eye, and display the second image through a second display 212 corresponding to the right eye. there is. According to one embodiment, the user can focus and check the external environment based on the first image and the second image.
- the display module 160 may be, for example, a liquid crystal display (LCD), a digital mirror device (DMD), or a liquid crystal on silicon (LCoS) device. ), a light emitting diode (LED) on silicon (LEDoS), an organic light emitting diode (OLED), and/or a micro LED (micro light emitting diode (micro LED)).
- LCD liquid crystal display
- DMD digital mirror device
- LCD liquid crystal on silicon
- LED light emitting diode
- OLED organic light emitting diode
- micro LED micro light emitting diode
- the electronic device 101 is configured to display the screen output area of the display module 160 (e.g., a display device). may include a light source that irradiates light to an area).
- the display module 160 may emit light to the user even if it does not include a separate light source. It can provide virtual images of good quality.
- the display module 160 is implemented with organic light emitting diodes and/or micro LEDs, a light source is not required, and thus the electronic device 101 can be lightweight.
- the electronic device 101 may have a first transparent member and/or a second transparent member attached to the display module 160 (eg, the first display 211 and the second display 212).
- a user wearing the electronic device 101 on his head can check the first screen through the first transparent member, and can check the second screen through the second transparent member.
- the first transparent member and/or the second transparent member may be formed of at least one of a glass plate, a plastic plate, and/or a polymer, and may be made transparent or translucent.
- the first transparent member may be disposed to face the user's left eye
- the second transparent member may be disposed to face the user's right eye.
- a plurality of cameras are installed corresponding to the front direction (e.g., +y direction, user's gaze direction) of the electronic device 101.
- the camera module 180 includes a left eye camera (e.g., a first camera) that captures a substantially gazing direction based on the left eye and/or a right eye camera (e.g., a second camera) that captures a substantially gazing direction based on the right eye. ) may include.
- the camera module 180 may include at least two cameras.
- the camera module 180 may be arranged to face substantially the same direction as the user's gaze direction, and may capture images of the surrounding environment in the front direction of the electronic device 101.
- the electronic device 101 may include eye tracking cameras 321 and 322 for tracking the movement of the user's eyes.
- the pupil tracking cameras 321 and 322 include a first pupil tracking camera 321 for tracking the movement of the left pupil with respect to the user's left eye and a first pupil tracking camera 321 for tracking the movement of the right pupil with respect to the user's right eye. It may include a second pupil tracking camera 322.
- the first pupil tracking camera 321 can track the movement of the left eye when the electronic device 101 is worn on the user's head.
- the electronic device 101 can use the first pupil tracking camera 321 to check the area where the left eye is gazing.
- the second pupil tracking camera 322 can track the movement of the right eye when the electronic device 101 is worn on the user's head.
- the electronic device 101 can use the second pupil tracking camera 322 to check the area where the right eye is gazing.
- the area where the user gazes may mean the areas 331 and 332 (eg, display area) where the screen is displayed through the display module 160.
- the electronic device 101 determines whether the first display area 331 on which the left eye gazes and the second display area 332 on which the right eye gazes are disposed on the same line (e.g., reference horizon). You can judge.
- one of the lower boundary line 331-1 of the first display area 331 and the lower boundary line 332-1 of the second display area 332 may be set as the reference horizontal line.
- the electronic device 101 determines whether the lower boundary line 331-1 of the first display area 331 and the lower boundary line 332-1 of the second display area 332 match the set reference horizontal line. You can.
- the electronic device 101 displays at least one line among the lower boundary line 331-1 of the first display area 331 and the lower boundary line 332-1 of the second display area 332 based on the set reference horizontal line. can be adjusted.
- the first display 211 and the second display 212 included in the display module 160 may be individually designed based on each pupil position (eg, left eye, right eye).
- the first display 211 and the second display 212 in the process of arranging the display module 160, the first display 211 and the second display 212 can be arranged independently, and the first display 211 and the second display ( 212) Placement errors may occur.
- the electronic device 101 may check placement error information (e.g., placement error value) for the first display 211 and the second display 212, and display information based on the confirmed placement error information.
- placement error information e.g., placement error value
- the display area of at least one of the first display 211 and the second display 212 eg, the first display area 331 and the second display area 332) may be adjusted.
- the electronic device 101 displays the first screen displayed through the first display 211 and the second screen displayed through the second display 212 on substantially the same line (e.g., reference horizontal line). As much as possible, the position of the display area corresponding to at least one of the first display 211 and the second display 212 can be adjusted.
- the electronic device 101 displays substantially the same line (line) in the first display area 331 of the first display 211 and the second display area 332 of the second display 212.
- the position of the display area for at least one of the first display 211 and the second display 212 may be adjusted so that it is located on the reference horizontal line.
- the electronic device 101 may determine the first lower boundary line 331-1 of the first display area 331 as the reference horizontal line, and the second lower boundary line of the second display area 332 ( The display position of the second display area 332 may be adjusted so that 332-1) is aligned with the first lower border line 331-1, which is the reference horizontal line.
- the electronic device 101 is configured so that the second lower boundary line 332-1 is located on substantially the same line (e.g., reference horizontal line) as the first lower boundary line 331-1. 2
- the display position of area 332 can be adjusted.
- the reference horizontal line may be determined as one of the first lower boundary line 331-1 and the second lower boundary line 332-1, or may be arbitrarily determined by the user's settings.
- the first lower boundary line 331-1 of the first display area 331 and the second lower boundary line 332-1 of the second display area 332 are the same line (e.g., reference line).
- the user's visual fatigue and visual discomfort may be reduced.
- the user's level of immersion in content displayed through the first display area 331 and the second display area 332 may increase.
- the electronic device 101 (e.g., the electronic device 101 of FIG. 1) is a video see-through (VST) corresponding to one of head mounted display (HMD) devices. through) device.
- the electronic device 101 may be worn on the user's head, and the display assembly 301 may be disposed in response to the user's eye position.
- the display assembly 301 is a part of the housing that constitutes the electronic device 101, and includes a display module (e.g., display module 160 in FIG. 1), a camera module (e.g., camera module 180 in FIG. 1), and/ Or, it may include at least one of a sensor module (eg, sensor module 176 in FIG. 1).
- the display assembly 301 includes a plurality of cameras (e.g., the first camera 221) corresponding to the front direction (e.g., +y direction, the user's gaze direction) of the electronic device 101.
- the second camera 222 may be disposed.
- the display assembly 301 may include a first camera 221 corresponding to the user's left eye and a second camera 222 corresponding to the user's right eye.
- the display assembly 301 may use the first camera 221 and the second camera 222 to photograph the external environment in the front direction (eg, +y direction) of the electronic device 101.
- the display assembly 301 has a first surface 311 (e.g., the front) exposed to the external environment and a second surface 312 (e.g., the back) that is in close contact with the user's skin when worn without being exposed to the external environment. ) may include. For example, when the electronic device 101 is worn on the user's head, the first surface 311 of the display assembly 301 is exposed to the external environment, and the second surface 312 of the display assembly 301 is exposed to the external environment. ) may be in a state of being at least partially in close contact with the user's face.
- the display assembly 301 may have at least one distance sensor 313 , 314 , 315 , 316 disposed on the first surface 311 .
- the distance sensors 313, 314, 315, and 316 may measure the distance to objects placed nearby, and may include an infrared sensor, an ultrasonic sensor, and/or a LiDAR (light detection and ranging) sensor. It may include at least one sensor.
- the distance sensors 313, 314, 315, and 316 may be implemented based on at least one of an infrared sensor, an ultrasonic sensor, and/or a lidar sensor. Referring to FIG. 3A, four distance sensors 313, 314, 315, and 316 are shown disposed on the first surface 311 of the display assembly 301, but the present invention is not limited thereto.
- the display assembly 301 includes a plurality of displays (e.g., the first display 211) corresponding to the rear direction (e.g., -y direction, opposite to the user's gaze direction) of the electronic device 101.
- the second display 212) may be disposed.
- the display assembly 301 may have a first display 211 corresponding to the user's left eye and a second display 212 corresponding to the user's right eye disposed on the second surface 312 (e.g., the back). It can be.
- the first display 211 When the electronic device 101 is worn on the user's head, the first display 211 may be arranged in correspondence with the position of the user's left eye, and the second display 212 may be arranged in correspondence with the position of the user's right eye.
- the display assembly 301 may have a plurality of pupil tracking cameras (eg, a first pupil tracking camera 321 and a second pupil tracking camera 322) disposed at least partially on the second surface 312.
- the pupil tracking cameras 321 and 322 may track the movement of the user's pupils.
- the first pupil tracking camera 321 can track the movement of the left eye
- the second pupil tracking camera 322 can track the movement of the right eye.
- the electronic device 101 may check the direction in which the user gazes based on the movement of the pupil.
- the display assembly 301 may have a plurality of facial recognition cameras (eg, a first facial recognition camera 341 and a second facial recognition camera 342) disposed at least partially on the second surface 312.
- the facial recognition cameras 341 and 342 may recognize the user's face when the electronic device 101 is worn on the user's face.
- the electronic device 101 may use a facial recognition camera to determine whether the electronic device 101 is worn on the user's face.
- the electronic device 101 coupled with the display assembly 301 when worn on the user's head, it shows a situation in which a screen is displayed through the first display 211 and the second display 212. do.
- the first display 211 may be arranged to correspond to the user's left eye
- the second display 212 may be arranged to correspond to the user's right eye.
- the display module 160 e.g., the first display 211 and the second display 212
- the display module 160 includes a display panel, and the display panel includes a first area (e.g., a first display area 331, a second display area 332) where a screen is visually displayed. ) and a second area where the screen is not displayed (e.g., undisplayed area). At least a portion of the display panel may be set as a first area (eg, a display area), and the remaining area other than the first area may be set as a second area (eg, a dummy area). The second area may be set to at least partially surround the first area.
- a first area e.g., a first display area 331, a second display area 332
- a second area where the screen is not displayed
- the first display 211 may display the first screen based on the first display area 331, and the second display 212 may display the first screen based on the second display area 332.
- 2 screens can be displayed.
- the first screen may include an external image captured using the first camera 221
- the second screen may include an external image captured using the second camera 222.
- the user can check the first screen displayed on the first display area 331 through the left eye, and check the second screen displayed on the second display area 332 through the right eye.
- the first display area 331 of the first display 211 is a first line It may be implemented based on 331-1 (e.g., a boundary line), and the second display area 332 of the second display 212 is based on the second line 332-1 (e.g., a boundary line). It can be implemented as:
- the electronic device 101 includes the first display 211 and the second display 212 in a process in which the first display 211 and the second display 212 are individually disposed on the display assembly 301.
- a placement error e.g., vertical misalignment phenomenon, first distance 350 in FIG. 3C
- a state in which a placement error occurs is when the first line 331-1 of the first display area 331 and the second line 332-1 of the second display area 332 are substantially on the same line. It may be in a state where it is not located in .
- the electronic device 101 may check placement error information (e.g., the first distance 350 in FIG. 3C) between the first display 211 and the second display 212, and determine the confirmed placement Based on the error information 350, the first line 331-1 of the first display area 331 and the second line 332-1 of the second display area 332 are substantially the same line (e.g., reference line).
- the display position of at least one of the first display area 331 and the second display area 332 may be adjusted to be located on the horizontal line.
- the electronic device 101 displays the first display so that the first display time at which the screen is displayed on the first display 211 and the second display time at which the screen is displayed on the second display 212 coincide with each other.
- the display timing of at least one of the display 211 and the second display 212 can be adjusted. For example, when the first display point and the second display point coincide, the first screen through the first display area 331 and the second screen through the second display area 332 have substantially the same line (e.g. : reference horizon) can be displayed.
- the electronic device 101 displays the first display area 331 to prevent placement errors (e.g., first distance 350) with respect to the first display 211 and the second display 212. ) and the display position corresponding to at least one of the second display area 332 can be adjusted.
- the horizontal levels of the first display area 331 and the second display area 332 may be adjusted to match. This can reduce the user's visual fatigue and discomfort, and increase the user's immersion in the displayed content.
- Figure 4 is a block diagram of an electronic device according to an embodiment of the present disclosure.
- the electronic device 101 of FIG. 4 may be at least partially similar to the electronic device 101 of FIG. 1 or may further include other components of the electronic device 101.
- the electronic device 101 (e.g., the electronic device 101 of FIG. 1) includes a processor 120 (e.g., the processor 120 of FIG. 1) and a memory 130 (e.g., the electronic device 101 of FIG. 1). Memory 130), display module 160 (e.g., display module 160 in FIG. 1), sensor module 176 (e.g., sensor module 176 in FIG. 1), camera module 180 (e.g. It may include a camera module 180 of FIG. 1) and/or a communication module 190 (eg, the communication module 190 of FIG. 1).
- the display module 160 includes a first display 411 corresponding to the user's left eye (e.g., the first display 211 in FIG.
- the sensor module 176 may include a hall sensor (hall IC) 413 for checking placement error information between the first display 411 and the second display 412.
- the camera module 180 may include an image sensor 414 for converting a captured video into an image.
- the electronic device 101 may include a video see-through (VST) device corresponding to one of head mounted display (HMD) devices.
- VST device is an electronic device worn on the user's head, and the display module 160 can be arranged in response to the user's eye position.
- the first display 411 may be placed corresponding to the user's left eye
- the second display 412 may be placed corresponding to the user's right eye. It can be.
- the VST device can capture the surrounding environment using the camera module 180 (e.g., the first camera 221 and the second camera 222 in FIG.
- the VST device can convert a captured image based on the image sensor 414 of the camera module 180 and output the converted image through the display module 160.
- the user can recognize the actual surrounding environment based on the image displayed on the display module 160.
- the camera module 180 of the electronic device 101 may be arranged in substantially the same direction as the user's gaze direction.
- the first camera 221 may be placed based on the user's left eye
- the second camera 222 may be placed based on the user's right eye.
- the electronic device 101 is worn in a fixed state on the user's head, and the direction the camera module 180 points in based on the user's head movement (e.g., the direction in which the camera module 180 is shooting, the user's gaze direction) This may change.
- the electronic device 101 may have a first display 411 and a second display 412 individually arranged to correspond to both eyes (eg, left eye, right eye) of the user.
- the electronic device 101 may include a display assembly (eg, display assembly 301 in FIG. 3A) including a first display 411 and a second display 412.
- a placement error between the first display 411 and the second display 412 e.g. vertical misalignment
- the processor 120 of the electronic device 101 uses the sensor module 176 and the camera module 180 to collect placement error information between the first display 411 and the second display 412.
- the first display area of the first display 411 e.g., the first display area 331 in FIG. 3C
- the second display area of the second display 412 so that the confirmed placement error information disappears.
- the display position of at least one of the second display areas 332 in FIG. 3C can be adjusted.
- the processor 120 displays the first display area 331 and the second display area 332 so that the first display area 331 and the second display area 332 are displayed on substantially the same line (e.g., a reference horizontal line).
- the display position for at least one of the display areas 332 can be adjusted.
- the processor 120 configures the first display 411 so that the first display time at which the screen is displayed on the first display 411 and the second display time at which the screen is displayed on the second display 412 coincide with each other. ) and the display timing of at least one of the second display 412 can be adjusted.
- the processor 120 of the electronic device 101 executes a program (e.g., program 140 of FIG. 1) stored in the memory 130 to execute at least one other component (e.g., hardware or Software components) can be controlled and various data processing or calculations can be performed.
- the processor 120 can capture surrounding images using the camera module 180 and convert the captured images based on the image sensor 414.
- the processor 120 may provide the converted image to the user by displaying the converted image through the display module 160 (eg, the first display 411 and the second display 412).
- the processor 120 can check placement error information between the first display 411 and the second display 412 using the sensor module 176 and the camera module 180, and based on the confirmed placement error information, The display position of at least one of the first display area 331 of the first display 411 and the second display area 332 of the second display 412 can be adjusted.
- the processor 120 displays the first display area 331 and the second display area 332 so that the first display area 331 and the second display area 332 are displayed on substantially the same line (e.g., a reference horizontal line). ) You can adjust the display position for at least one of the following.
- the memory 130 checks placement error information between the first display 411 and the second display 412, and displays the first display area 331 and the second display area 331 based on the confirmed placement error information.
- related data e.g., data related to placement error information, data related to the hall sensor 413, data captured using the camera module 180
- data related to an image data related to the first display area 331 of the first display 411, data related to the second display area 332 of the second display 412, and/or the display module 160 You can save data related to when the screen is displayed.
- the display module 160 may be arranged to correspond to the position of the user's eyes (eg, both eyes) when the electronic device 101 is worn on the user's head.
- the display module 160 may be implemented in a form that is disposed adjacent to the user's eye position, such as glasses.
- the display module 160 may include a first display 411 arranged to correspond to the user's left eye and a second display 412 arranged to correspond to the user's right eye.
- the display module 160 may include a display panel.
- the display panel may be visually divided into a first area (eg, display area) where a screen is displayed and a second area (eg, non-display area) where the screen is not displayed.
- the display panel included in the display module 160 may be implemented in a form including a first area and a second area.
- the display panel may be physically implemented in a size that includes a first area and a second area, and may be set to display a screen based on at least a portion of the first area.
- the display panel can be designed in a structure that is arranged side by side.
- a display panel can output a screen in such a way that a plurality of pixel lines are turned on sequentially.
- the display panel may be divided into a first area where a screen is output (eg, display area, active area) and a second area where the screen is not output (eg, a dummy area).
- the first area and the second area may be implemented based on a plurality of pixel lines.
- the processor 120 may output the screen by sequentially turning on a plurality of pixel lines included in the first area.
- the second area may include a first dummy area (e.g., upper dummy) extending along the upper boundary line of the first area and a second dummy area (e.g., lower dummy) extending along the lower boundary line of the first area.
- the first dummy area and the second dummy area may include a plurality of pixel lines, and the plurality of pixel lines may be lit based on the settings of the display panel.
- the first dummy area and the second dummy area may be at least partially used as a display area for displaying a screen.
- the sum of the areas of the first dummy area and the second dummy area included in the second area may be kept constant.
- a part of the first dummy area is used as a display area (e.g., an active area)
- the area of the first dummy area is reduced compared to before, but the area of the second dummy area is relatively enlarged by the part area. It can be.
- the processor 120 is based on the first dummy area and the second dummy area included in the second area (e.g., undisplayed area) for the first area (e.g., display area, active area).
- the position can be adjusted.
- the processor 120 may move the first area toward the first dummy area in such a way that the first area includes a partial area of the first dummy area.
- the area of the first area e., active area
- the area of the second dummy area may be relatively expanded by the partial area.
- the sum of the areas of the first dummy area and the second dummy area may be kept constant.
- the processor 120 may move the first area toward the second dummy area in such a way that the first area includes a partial area of the second dummy area.
- the area of the first area eg, active area
- the area of the first dummy area may be relatively expanded by the partial area.
- the sum of the areas of the first dummy area and the second dummy area may be kept constant.
- the processor 120 may adjust the position of the first area by using the first dummy area and the second dummy area.
- the processor 120 operates the first display such that the first area of the first display 411 and the first area of the second display 412 are arranged on the same line (eg, a reference horizontal line). The position of the first area with respect to at least one of the display 411 and the second display 412 may be adjusted.
- the sensor module 176 is an assembly in which the first display 411 and the second display 412 are disposed on the display assembly (e.g., the display assembly 301 of FIG. 3A) of the electronic device 101. In the process, it can be detected whether a placement error occurs between the first display 411 and the second display 412.
- the sensor module 176 may include a Hall sensor 413 (hall IC) for detecting a magnetic substance (eg, a magnetic member, a magnet).
- a Hall sensor 413 hall IC
- the first display 411 and the second display 412 coupled with at least one magnetic material are connected to the display assembly 301.
- the first display 411 and the second display 412 coupled with at least one magnetic material are connected to the display assembly 301.
- the processor 120 generates a first magnetic field for the first magnetic material coupled to the first display 411 and a second magnetic material coupled to the second display 412 based on the at least one Hall sensor 413.
- the second magnetic field can be measured.
- the processor 120 may check the location of the first display 411 and the location of the second display 412 based on the measured first and second magnetic fields.
- the processor 120 generates a placement error (e.g., placement error information) between the first display 411 and the second display 412 based on the position of the first display 411 and the position of the second display 412. You can judge whether it was done or not.
- detecting whether a placement error occurs between the first display 411 and the second display 412 it is not limited to the hall sensor 413, and various types of sensors (e.g., proximity sensors) are used. , illuminance sensor) can be used.
- the camera module 180 may be arranged to face substantially the same direction as the user's gaze direction when the user wears the electronic device 101 on the head.
- the camera module 180 may capture images similar to the surrounding environment that the user actually sees.
- the camera module 180 includes a first camera corresponding to the user's left eye (e.g., the first camera 221 in FIG. 2) and a second camera corresponding to the user's right eye (e.g., the first camera 221 in FIG. 2). a second camera 222), a pupil tracking camera for tracking eye movement (e.g., pupil tracking cameras 321 and 322 in FIG. 3B), and/or a face recognition camera for recognizing the user's face (e.g.
- the camera module 180 may include an image sensor 414 for converting an image captured using a camera into an image.
- the processor 120 can capture an image using the camera module 180 and convert the captured image into a digital image based on the image sensor 414.
- the processor 120 may display the converted image through the first display 411 and the second display 412.
- the communication module 190 may include an electronic device 101 (e.g., HMD device, VST device) and an external electronic device (e.g., server, smartphone, personal computer (PC), personal digital device (PDA)). It may support establishment of a direct (e.g., wired) communication channel or wireless communication channel between assistants or access points, and performance of communication through the established communication channel.
- the communication module 190 may include one or more communication processors that support direct (eg, wired) communication or wireless communication.
- the processor 120 of the electronic device 101 processes the first display 411 and the second display 412 included in the display module 160. and a distortion phenomenon (e.g., a placement error occurs) between the second displays 412 can be confirmed, and a display is displayed on at least one of the first display 411 and the second display 412 based on the placement error information according to the distortion phenomenon.
- the display area can be adjusted.
- the processor 120 displays the first display 411 so that the first screen of the first display 411 and the second screen of the second display 412 are visually viewed as being arranged on the same line (e.g., reference horizontal line). ) and the position of the display area for at least one of the second display 412 can be adjusted.
- the processor 120 may adjust the position of the display area by using the dummy area included in each of the first display 411 and the second display 412.
- an electronic device worn on the user's head includes a first display (e.g., the first display 411 in FIG. 4) disposed corresponding to the left eye. , a second display (e.g., the second display 412 in FIG. 4), a memory (e.g., the memory 130 in FIG. 4), and a first display 411 and a second display 412 arranged corresponding to the right eye. ), and a processor (eg, processor 120 of FIG. 1) operatively connected to the memory 130.
- the processor 120 may check placement error information (eg, the first distance 350 in FIG. 3C) between the first display 411 and the second display 412.
- the processor 120 can check the first driving time for the first display 411 and the second driving time for the second display 412. there is.
- the processor 120 may adjust at least one of the first driving time and the second driving time based on the confirmed placement error information 350.
- the processor 120 may display at least one content through the first display 411 and the second display 412 based on the adjusted driving time.
- the first display 411 and the second display 412 have a first area 621 for displaying at least one content and a second area 622 where at least one content is not displayed. It can be included.
- the second area 622 includes a first dummy area 602 extending from one end boundary line of the first area 621, and a second dummy area 602 extending from the other end boundary line of the first area 621. It may include a dummy area 603.
- the display position of the first area 621 moves to at least partially include one of the first dummy area 602 and the second dummy area 603 based on the adjusted driving point. It can be.
- the area of the first area 621 may be maintained constant.
- the sum of the areas of the first dummy area 602 and the second dummy area 603 may be maintained constant.
- the first display 411 and the second display 412 may be implemented with a plurality of pixel lines arranged side by side at a set interval.
- the processor 120 may sequentially light a plurality of pixel lines along one direction based on the adjusted driving timing.
- the processor 120 determines the starting point of operation for the first area 621, corresponding to one of the first display 411 and the second display 412, and calculates the obtained placement error information. Based on 350, the start point of operation for the first area 621 can be adjusted.
- the processor 120 captures a first image of the first area 621 of the first display 411 and a second image of the second area 622 of the second display 412 from an external camera device.
- the second image can be acquired, and placement error information 350 can be confirmed based on the first image and the second image.
- the processor 120 determines that the other end boundary line of the first area 331 with respect to the first display 411 is substantially closer to the other end boundary line of the first area 332 with respect to the second display 412.
- the driving timing corresponding to one of the first driving timing for the first display 411 and the second driving timing for the second display 412 may be adjusted to form the same line.
- the electronic device 101 includes a first Hall sensor 911 for sensing the first magnetic material 901 included in the first display 411, and a second sensor included in the second display 412. It may further include a second Hall sensor 912 for sensing the magnetic material 902.
- the processor 120 may measure the first magnetic field based on the first magnetic material 901 using the first Hall sensor 911.
- the processor 120 may use the second Hall sensor 912 to measure the second magnetic field based on the second magnetic material 902.
- the processor 120 may check placement error information 350 for the first display 411 and the second display 412 based on the first magnetic field and the second magnetic field.
- FIG. 5 is a flowchart illustrating a method of adjusting a display area on a display in an electronic device worn on a user's head according to an embodiment of the present disclosure.
- each operation may be performed sequentially, but is not necessarily performed sequentially.
- the order of each operation may be changed, and at least two operations may be performed in parallel.
- an electronic device e.g., a glasses-type wearable device, the electronic device 101 of FIG. 1, a video see-through (VST) device, which is one of the head mounted display (HMD) devices
- a display module e.g., the display module 160, the first display 411, and the second display 412 in FIG. 4
- the electronic device 101 may include a camera module (eg, the camera module 180 in FIG. 4) that photographs the surrounding environment based on a direction substantially the same as the user's gaze direction.
- the electronic device 101 may display an image captured using the camera module 180 through the display module 160.
- a user wearing the electronic device 101 on his head can check the surrounding environment corresponding to the direction of gaze based on the image displayed through the display module 160.
- the processor of the electronic device 101 arranges the first display 411 and the second display 412 on the electronic device 101 worn on the user's head.
- Error information e.g., the first distance 350 in FIG. 3C
- the electronic device 101 may display the first display 411 in a process in which the first display 411 and the second display 412 are disposed on a display assembly (e.g., the display assembly 301 of FIG. 3A). ) and the second display 412 may cause vertical misalignment.
- the processor 120 when a warping phenomenon occurs, the first display 411 and the second display 412 are not level, and the processor 120 generates placement error information (e.g., the first distance in FIG. 3C). Based on 350)), the degree of distortion can be confirmed numerically.
- placement error information e.g., the first distance in FIG. 3C. Based on 350
- an external electronic device e.g., an external electronic device including a camera, a camera device
- Images for the first display 411 and the second display 412 can be captured using a camera.
- the first display 411 and the second display 412 each of which has a display area (e.g., the first display area 331 and the second display area 332 in FIG. 3C) at least partially activated. can be captured by an external electronic device.
- the electronic device 101 may acquire an image captured in an external electronic device through a communication module (e.g., the communication module 190 in FIG. 4) and display the image on the first display 411 and the second display 412.
- an external electronic device may check placement error information 350 based on a captured image and provide the confirmed placement error information 350 to the electronic device 101 .
- the electronic device 101 may store the acquired placement error information 350 in a memory (eg, memory 180 in FIG. 4).
- the electronic device 101 may check placement error information 350 for the first display 411 and the second display 412 based on data provided from an external electronic device.
- At least two hall sensors are disposed in the display assembly 301, and the first display 411 and the second display 412 are at least partially It may be in a state where a magnetic substance is combined.
- the first Hall sensor may detect a first magnetic field for the magnetic material of the first display 411
- the second Hall sensor may detect a second magnetic field for the magnetic material of the second display 412. there is.
- the electronic device 101 detects the first display 411 and the second display 412 based on the first Hall sensor and the second Hall sensor.
- the first magnetic field corresponding to 411 and the second magnetic field corresponding to the second display 412 can be measured.
- the processor 120 may check placement error information for the first display 411 and the second display 412 based on the measured first and second magnetic fields.
- the electronic device 101 may check the first magnetic field and the second magnetic field measured based on at least two Hall sensors 413, and determine the first magnetic field and the second magnetic field based on the first magnetic field and the second magnetic field. Placement error information 350 for the display 411 and the second display 412 can also be checked.
- the processor 120 may determine whether the confirmed placement error information 350 exceeds a set threshold. If a placement error occurs between the first display 411 and the second display 412, the processor 120 may determine whether the placement error has a visual impact. For example, the threshold may be set based on a reference value by which placement errors are visually recognized.
- the processor 120 determines the first driving time for the first display 411 and the second driving time for the second display 412 in operation 505. You can check the timing.
- the first display 411 may display a first screen (e.g., at least one content) based on a first driving time point
- the second display 412 may display a first screen based on a second driving time point. 2 screens may be displayed.
- the processor 120 determines that the first screen and the second screen are substantially the same line (e.g., reference line).
- At least one of the first driving time point and the second driving time point can be adjusted so that it is displayed on the horizontal line. If the placement error information 350 does not exceed a set threshold in operation 503 according to one embodiment, the processor 120 may maintain the driving timing for the first display 411 and the second display 412. .
- a situation in which the placement error information 350 does not exceed a set threshold refers to a situation in which the first display 411 and the second display 412 are visually displayed on the same line (e.g., reference horizon). It can be included.
- the processor 120 may adjust at least one of the first driving time and the second driving time based on the confirmed placement error information 350.
- the first display 411 and the second display 412 include a display panel, and the display panel may be implemented with a plurality of pixel lines formed based on at least one pixel. For example, at least one pixel may be arranged side by side along a straight line, forming a pixel line.
- the display panel e.g., the first display 411 and the second display 412 has a plurality of pixel lines (e.g., a first pixel line, a second pixel line, and a third pixel line) arranged side by side at a specified interval. It can be designed in an arranged structure.
- the display panel may be divided into a first area (eg, active area) where a screen is visually displayed, and a second area (eg, a dummy area) where the screen is not visually displayed.
- the display panel may be designed with a structure in which a plurality of pixel lines are arranged side by side as a whole.
- a display panel may display a screen in such a way that a plurality of pixel lines are sequentially lit.
- the first display 411 has pixel lines corresponding to the upper boundary line of the first display area 331 to the lower boundary line 331-1 of the first display area 331. Up to N pixel lines can be lit sequentially.
- the first driving time for the first display 411 may include a lighting time for the first pixel line corresponding to the upper boundary line of the first display area 331.
- the processor 120 may display a screen for the first display area 331 at the first driving time based on the first display area 331 of the first display 411.
- the processor 120 may display a screen for the second display area 332 at the second driving time based on the second display area 332 of the second display 412.
- the processor 120 displays the first screen for the first display area 331 and the second screen for the second display area 332 on substantially the same line (e.g., reference horizontal line). At least one of the first driving time and the second driving time can be adjusted so that it is displayed.
- the display panel includes a first area (e.g., display area, active area) in which at least one content is visually displayed, and a second area (e.g., dummy area) in which the content is not visually displayed.
- the second area may include a first dummy area (e.g., upper dummy) extending along the upper boundary line of the first area and a second dummy area (e.g., lower dummy) extending along the lower boundary line of the first area. ) may include.
- the first dummy area and the second dummy area may include a plurality of pixel lines, and the plurality of pixel lines may be lit based on the settings of the display panel.
- the first dummy area and the second dummy area may be at least partially used as a display area for displaying a screen.
- the first display area 331 may be adjusted to include a portion of the first dummy area (upper dummy).
- the first display area 331 may visually appear to have moved to the top of the first display 411.
- the first display time for the first display area 331 is postponed, the first display area 331 may be adjusted to include a portion of the second dummy area (lower dummy).
- the first display area 331 may visually appear to have moved to the bottom of the first display 411.
- the processor 120 may display at least one content through the first display 411 and the second display 412 based on the adjusted driving time.
- the processor 120 may display at least one content (eg, the first screen) at the first driving time based on the first display area 331 of the first display 411.
- the processor 120 may display at least one content (eg, a second screen) at the second driving time based on the second display area 332 of the second display 412.
- the processor 120 adjusts the driving timing for the display area to display the first display area 331 of the first display 411 and the second display area 332 of the second display 412. This can be displayed as if it were located on substantially the same line (e.g., the reference horizon).
- the user may perceive the first screen and the second screen as if they are visually displayed based on the same horizontal line, and fatigue and discomfort caused by using the electronic device 101 may be reduced.
- the processor 120 of the electronic device 101 may check placement error information (e.g., distortion phenomenon) between the first display 411 and the second display 412, and the confirmed placement error information When exceeds the set threshold, the first driving time for the first display 411 and the second driving time for the second display 412 can be confirmed.
- the processor 120 may adjust at least one of the first driving time and the second driving time based on the confirmed placement error information. For example, adjusting the first driving time point may mean that the display position of the first display area 331 of the first display 411 is changed.
- the processor 120 may adjust the position of the display area by utilizing a dummy area (eg, a dummy area of a display panel) included in each of the first display 411 and the second display 412.
- the processor 120 determines that the first screen displayed through the first display area of the first display 411 and the second screen displayed through the second display area of the second display 412 are visually the same line (e.g. At least one of the first driving time and the second driving time can be adjusted so that it is displayed based on the reference horizontal line.
- the processor 120 may display at least one content through the first display 411 and the second display 412 based on the adjusted driving time.
- FIG. 6 is an exemplary diagram illustrating the physical form of a display panel and a display area of the display panel according to an embodiment of the present disclosure.
- a first display e.g., first display 411 in FIG. 4
- a second display e.g., first display 411 in FIG. 4
- the first display 411 and the second display 412 may be designed to have substantially the same shape. Although the following description is based on the first display 411, the description is not limited to the first display 411 and may include a description of the second display 412.
- the first display 411 may include a display panel 622, and based on the display panel 622, at least a portion of the area may be divided into a display area 621 (e.g., FIG. It can be set to the first display area 331 in Figure 3C and the second display area 332 in Figure 3C.
- the processor e.g., processor 120 of FIG. 4
- the processor displays a screen through the display area 621 of the first display 411. can do.
- the display panel 622 may be divided into a first area where the screen is displayed (e.g., display area 621, active area) and a second area where the screen is not displayed (e.g., non-display area).
- the second area may include a first dummy area 602 (eg, upper dummy) and a second dummy area 603 (eg, lower dummy).
- the first dummy area 602 may include an area extending a specified distance from the upper boundary line 631 of the display area 621
- the second dummy area 603 may include a display area ( It may include an area extending by a specified distance from the lower border line 632 of 621).
- the first dummy area 602 and the second dummy area 603 include an area extending toward the top or bottom of the display area 621, but are not limited thereto. According to one embodiment, the first dummy area 602 and the second dummy area 603 may be set as an area extending to the left or right of the display area 621.
- the display panel 622 has at least one pixel line formed based on a plurality of pixels, and includes a plurality of pixel lines (e.g., a first pixel line, a second pixel line, and a third pixel line). ) can be designed in a structure in which they are arranged side by side at specified intervals. For example, the display panel 622 may output a screen in such a way that a plurality of pixel lines are sequentially turned on.
- the first dummy area 602 and the second dummy area 603 may include a plurality of pixel lines, and the plurality of pixel lines may be lit based on the settings of the display panel.
- the first dummy area 602 and the second dummy area 603 may be at least partially used as a display area for displaying a screen. According to one embodiment, the sum of the areas of the first dummy area 602 and the second dummy area 603 may be maintained constant. For example, when a part of the first dummy area 602 is used as the display area 621 (e.g., an active area), the area of the first dummy area 602 is relatively reduced by the part area compared to before. , the area of the second dummy area 603 may be relatively enlarged by the partial area.
- the horizontal length 611 e.g., horizontal active (hactive)
- the vertical length 601 e.g., vertical active (vactive)
- the size of the display area 621 may be determined based on the horizontal length 611 (hactive) and the vertical length 601 (vactive).
- the display panel 622 has a vertical sync (Vsync) section 606, a vertical back porch (VBP) section 604, and a vertical active (VA) section 604 based on the vertical direction (e.g., z-axis direction). ) It can be divided into a section 601, and a vertical front porch (VFP) section 605.
- Vsync section 606, VBP section 604, VA section 601, and/or VFP section 605 is a plurality of pixel lines included in the display panel 622 based on the vertical direction. It can indicate the driving timing at which it lights up.
- the processor 120 may drive the display panel 622 along the Vsync section 606, VBP section 604, VA section 601, and/or VFP section 605 in chronological order. You can.
- the VBP section 604 may include a first dummy area 602, and the VFP section 605 may include a second dummy area 603.
- the processor 120 may turn on at least one pixel line in the VA section 601 (eg, display area) and display a screen.
- the display panel 622 has a horizontal sync (Hsync) section 614, a horizontal back porch (HBP) section 612, and a horizontal active (HA) section 614 based on the horizontal direction (e.g., x-axis direction). ) It can be divided into a section 611, and a horizontal front porch (HFP) section 613.
- Hsync section 614, HBP section 612, HA section 611, and/or HFP section 613 is a plurality of pixel lines included in the display panel 622 based on the horizontal direction. It can indicate the driving timing at which it lights up.
- the processor 120 may drive the display panel 622 along the Hsync section 614, HBP section 612, HA section 611, and/or HFP section 613 in time order. You can. According to one embodiment, the processor 120 may turn on at least one pixel line in the HA section 611 (eg, display area) and display a screen.
- the processor 120 may turn on at least one pixel line in the HA section 611 (eg, display area) and display a screen.
- the processor 120 operates in a Vsync section 606, a VBP section 604, a VA section 601, and/or a VFP section 605 based on the vertical direction (e.g., z-axis direction). , screens (e.g., VA section 601) can be displayed according to the order.
- the processor 120 may adjust the start time when the VA section 601 begins and the end time when the VA section 601 ends. For example, if the start time of the VA section 601 is advanced, the VBP section 604 may be reduced, and the driving timing for the VA section 601 may become faster. If the start time of the VA section 601 is advanced, the VFP section 605 may be relatively expanded.
- the VFP section 605 can be expanded by the reduced area of the VBP section 604.
- the VA section 601 eg, display area
- the VA section 601 may visually appear to have moved along the top direction (eg, z-direction) of the display panel 622.
- the VBP section 604 may expand and the driving timing for the VA section 601 may be delayed.
- the VFP section 605 may be relatively reduced. Since the area of the VA section 601 remains substantially the same, the VFP section 605 can be reduced by an area equivalent to the enlarged area of the VBP section 604.
- the VA section 601 eg, display area
- the VA section 601 may visually appear to have moved along the bottom direction (eg, -z direction) of the display panel 622.
- the processor 120 of the electronic device 101 may adjust the start and end points of the VA section 601 corresponding to the display area 621, and visually display the display area 621.
- the display area 621 may be displayed as if the display panel 622 was moved toward the top (e.g., z direction) or bottom direction (e.g., -z direction).
- FIG. 7A is a first graph showing driving timings corresponding to the first display and the second display, respectively, according to an embodiment of the present disclosure.
- FIG. 7B is a second graph illustrating the driving timing adjusted so that the start time for the display area matches each of the first display and the second display according to an embodiment of the present disclosure.
- an electronic device e.g., a glasses-type wearable device, the electronic device 101 of FIG. 1, a video see-through (VST) device, which is one of the head mounted display (HMD) devices
- a display module e.g., the display module 160, the first display 411, and the second display 412 in FIG. 4
- the electronic device 101 may include a camera module (eg, the camera module 180 in FIG. 4) that photographs the surrounding environment based on a direction substantially the same as the user's gaze direction.
- the processor of the electronic device 101 e.g., processor 120 in FIG. 4) may display an image (e.g., image) captured using the camera module 180 through the display module 160. there is.
- the processor 120 of the electronic device 101 may drive the first display 411 based on the first driving timing 710 and the second driving timing 720.
- the second display 412 can be driven.
- a distortion phenomenon e.g., placement error 731 occurs
- the first display 411 may display a screen through the first display area (e.g., the first display area 331 in FIG. 3C) in the first VA section 713
- the display 412 may display a screen through a second display area (e.g., the second display area 332 in FIG. 3C) in the second VA section 723.
- the first screen in the first display area 331 and the second screen in the second display area 332 are displayed based on the same line (e.g., reference horizontal line) due to physical distortion due to the placement error 731. It may not be displayed.
- the first screen and the second screen may not be horizontal. For example, the first screen may be displayed at a relatively higher position than the second screen.
- the first Vsync section 711 may include a first start section for displaying the first screen on the first display 411.
- the processor 120 may display the first screen starting from the first Vsync section 711.
- the second Vsync section 721 may include a second start section for displaying the second screen on the second display 412.
- the processor 120 may display the second screen starting from the second Vsync section 721.
- the first VBP section 712 and the second VBP section 722 may include a driving section for the first dummy area (e.g., upper dummy), and the first VFP section 714 , and the second VFP section 724 may include a driving section of the second dummy area (e.g., lower dummy).
- the first display 411 may have a first dummy area implemented based on the first VBP section 712 and a second dummy area may be implemented based on the first VFP section 714.
- a first dummy area may be implemented based on the second VBP section 722, and a second dummy area may be implemented based on the second VFP section 724.
- the first display 411 of FIG. 7A moves the driving timing of the first VA section 713 (e.g., the driving section for the first display area 301) forward or back.
- the processor 120 may move the first display 411 forward based on the first VBP section 712 so that the driving timing of the first VA section 713 becomes faster.
- the processor 120 may delay the driving timing of the first VA section 713 based on the first VFP section 714 with respect to the first display 411.
- the first VA section 713 and the second VA section 723 may maintain substantially the same driving timing.
- the processor 120 may display the first screen on the first display 411 using the first Vsync section 711 as the first start section, and use the second Vsync section 721 as the first screen.
- a second screen on the second display 412 may be displayed.
- a placement error 731 may occur between the first Vsync section 711 and the second Vsync section 721, and the first screen and the second screen are displayed spaced apart by the placement error 731. It can be.
- the first screen may be displayed at a relatively higher position than the second screen.
- the processor 120 of the electronic device 101 may drive the first display 411 based on the first driving timing 710 and the 2-1 driving timing 720-1. ), the second display 412 can be driven.
- the 2-1 driving timing 720-1 is relatively the starting point of the second VA section 723 of the second display 412 compared to the second driving timing 720 of FIG. 7A.
- the driving timing may be adjusted to be faster.
- the processor 120 adjusts the start time of the second VA section 723 for the second display 421 to be faster, so that the first screen and the second display for the first display 411
- the second screen for 412 may be displayed on the same line (eg, reference horizontal line).
- the processor 120 may adjust the start time of the second VA section 723 to be as fast as the placement error 731 between the first display 411 and the second display 412 in FIG. 7A. there is.
- the processor 120 sets the start time of the second VA section 723 for the second display 412 to a portion of the time (e.g., placement error) of the VBP-1 section 722-1. It can be pulled forward by the amount of time corresponding to (731).
- the VBP-1 section 722-1 may be relatively shorter than the VBP section 722 of FIG. 7A.
- the VFP-1 section 724-1 can be increased by some time.
- the second VA section 723 even if the start time of the second VA section 723 (e.g., the driving section for the second display area 332 of the second display 412) moves, the second VA section 723 is substantially )
- the time interval may remain the same.
- the sum of the VBP section 712 and the VFP section 714 may be substantially equal to the sum of the VBP-1 section 722-1 and the VFP-1 section 724-1.
- the processor 120 may adjust the start time of the second VA section 723 of the second display 412 and display the first screen and the second display area according to the first display area 331.
- the display module 160 may be controlled so that the second screen according to 332 is displayed on the same line (eg, reference horizontal line).
- FIG. 8A is an example diagram illustrating a screen visually displayed based on the first graph of FIG. 7A according to an embodiment of the present disclosure.
- an electronic device e.g., a glasses-type wearable device, the electronic device 101 of FIG. 1, a video see-through (VST) device, which is one of the head mounted display (HMD) devices
- a display module may be displayed in response to the user's eye position (e.g., the display module 160 in FIG. 4, the first display 411 corresponding to the user's left eye, and the second display 412 corresponding to the user's right eye). This can be placed.
- the electronic device 101 may include a camera module (eg, the camera module 180 in FIG. 4) that photographs the surrounding environment based on a direction substantially the same as the user's gaze direction.
- the processor of the electronic device 101 e.g., processor 120 in FIG. 4
- the first display 411 and the second display 412 may be in a state where a distortion phenomenon (e.g., placement error 350 occurs) occurs during the process of placing the first display 411 and the second display 412 in the electronic device 101.
- the first display 411 includes a first display area 331, a 1-1 dummy area 811 (e.g. upper dummy), and a 1-2 dummy area 812 (e.g. lower dummy).
- the first display area 331 of the first display 411 may include an area where a screen is visually displayed on the first display 411.
- the second display 412 may include a second display area 332, a 2-1 dummy area 821 (e.g., upper dummy), and a 2-2 dummy area 822 (e.g., lower dummy). You can.
- the second display area 332 of the second display 412 may include an area where a screen is visually displayed on the second display 412.
- the processor 120 may display the first screen through the first display area 331 based on the first driving time and the second display area 332 based on the second driving time.
- the second screen can be displayed through .
- the first lower boundary line of the first display area 331 e.g., the first lower boundary line 331-1 in FIG.
- the second lower border line 332 (e.g., the second lower border line 332-1 in FIG. 3C) may be determined based on the second driving time point.
- the first display area 331 and the second display area 332 may be in a state where a placement error has occurred by a first distance (e.g., the first distance 350 in FIG. 3C, placement error information). there is.
- the first display area 331 may be displayed at a relatively higher position than the second display area 332.
- the position of the first display area 331 may be relatively higher than the position of the second display area 332.
- the electronic device 101 may display the first screen according to the first display area 331 based on the first lower boundary line 331-1.
- the electronic device 101 may display a second screen according to the second display area 332 based on the second lower border line 332-1.
- the first screen and the second screen may be displayed based on different lines (eg, a reference horizontal line).
- FIG. 8B is an example diagram illustrating a screen visually displayed based on the second graph of FIG. 7B according to an embodiment of the present disclosure.
- the first display area 331 of the first display 411 and the second display area 332 of the second display 412 are substantially the same line (e.g., reference horizontal line 830). It can be displayed based on .
- the processor 120 of the electronic device 101 operates on the second display 412 so that the second display area 332 of the second display 412 moves to the top and is displayed, based on FIG. 8A.
- the driving timing can be adjusted.
- the processor 120 may adjust the start time of the second display area 332 (e.g., the second VA section 723 in FIG. 7B) to be faster.
- the processor 120 may adjust the start time of the second VA section 723 to substantially match the start time of the first VA section (e.g., the first VA section 713 in FIG. 7B). .
- the processor 120 can display the second screen according to the second display area 332 quickly as the start time of the second VA section 723 becomes earlier, and the first screen according to the first display area 331 and It may be displayed based on substantially the same line (e.g., the reference horizontal line 830).
- the processor 120 may determine the reference horizontal line 830 based on the first lower boundary line 331-1 of the first display area 331, and in line with the reference horizontal line 830,
- the first display 411 and the second display 412 can be controlled to display the first screen and the second screen.
- the first screen and the second screen can be displayed to be located on substantially the same line based on the reference horizontal line 830 (e.g., the first lower boundary line 331-1 of the first display area 331). there is.
- the processor 120 of the electronic device 101 may adjust the driving timing of at least one of the first display 411 and the second display 412.
- the processor 120 may adjust the driving timing so that the first display area 331 and the second display area 332 are arranged based on the same reference horizontal line 830. Referring to FIGS. 8A and 8B , the second display area 332 may be moved to occupy the 2-1 dummy area 821 by a first distance 350 .
- the vertical length of the 2-1 dummy area 821 of FIG. 8A is reduced by the first distance 350, and the display position of the 2-1 dummy area 821 is 2-1'. It can be adjusted to the display position of the dummy area 821-1.
- the vertical length of the 2-2 dummy area 822 of FIG. 8A may be extended by the first distance 350, and the 2-2 dummy area 822 is the 2-2' dummy area 822-1. can be adjusted.
- the 2-1 dummy area 821 may be relatively reduced in area by the first distance 350 compared to FIG. 8A, and the 2-2 dummy area 822 may be relatively smaller in area compared to FIG. 8A.
- the area may be expanded by the first distance 350.
- the area of the first display area 331 and the second display area 332 may remain substantially the same.
- the sum of the areas of the 2-1st dummy area 821 and the 2-2th dummy area 822 in FIG. 8A is the 2-1'th dummy area 821-1 and the 2-2'th dummy area in FIG. 8B. It may be substantially equal to the area sum of (822-1).
- the display position of the second display area 332 may be adjusted based on the 2-1 dummy area 821 and the 2-2 dummy area 822.
- FIG. 9A is a diagram illustrating the arrangement structure of a Hall sensor when checking an arrangement error using a Hall sensor according to an embodiment of the present disclosure.
- FIG. 9B is a diagram illustrating a situation in which placement errors for a first display and a second display are checked using at least one hall sensor according to an embodiment of the present disclosure.
- an electronic device e.g., a glasses-type wearable device, the electronic device 101 of FIG. 1, a video see-through (VST) device, which is one of the head mounted display (HMD) devices
- a display module e.g., the display module 160, the first display 411, and the second display 412 in FIG. 4
- the electronic device 101 may include a camera module (eg, the camera module 180 in FIG. 4) that photographs the surrounding environment based on a direction substantially the same as the user's gaze direction.
- the processor of the electronic device 101 e.g., processor 120 in FIG. 4) may display an image (e.g., image) captured using the camera module 180 through the display module 160. there is.
- a distortion phenomenon (e.g., placement error) may occur.
- the electronic device 101 may place a Hall sensor (eg, hall IC) and a magnetic material (eg, magnet) inside, and detect a distortion phenomenon based on the placed Hall sensor and magnetic material.
- distortion of the first display 411 and the second display 412 can be detected using various types of sensors. It is not limited to Hall sensors and magnetic materials.
- the first display 411 included in the display module 160 has a first magnetic material 901 (e.g., magnet, magnetic member) and a film member 920 (e.g., a graphite sheet) partially on the rear surface. (graphite sheet) can be implemented in the form of an arrangement.
- the electronic device 101 can measure the first magnetic field based on the first magnetic material 901 of the first display 411 using the first Hall sensor 911 disposed inside, and the first magnetic material 901 ) You can check the location.
- the display module 160 may include a first display 411, a first magnetic material 901, and a film member 920.
- the first Hall sensor 911 may be at least partially disposed in the housing constituting the electronic device 101 while being separated from the first magnetic material 901 by a set distance.
- the display is not limited to the first display 411, and the second display 412 may also be implemented with substantially the same structure as that of FIG. 9A.
- the user With the electronic device 101 worn on the user's head, the user can check the first screen based on the first display 411 corresponding to the left eye and the second display 412 corresponding to the right eye. You can check the second screen with .
- the first magnetic material 901 may be partially attached to one area (eg, the back) of the display panel.
- the second magnetic material 902 may be partially attached to one area (eg, the back) of the display panel.
- the first magnetic material 901 and the second magnetic material 902 may be attached to substantially the same position with respect to the display panel.
- the electronic device 101 includes a first Hall sensor 911 for measuring the first magnetic field generated based on the first magnetic material 901 and a second magnetic field generated based on the second magnetic material 902. It may include a second Hall sensor 912. According to one embodiment, the first Hall sensor 911 and the second Hall sensor 912 may be at least partially disposed in a housing constituting the electronic device 101.
- the processor 120 of the electronic device 101 uses the first Hall sensor 911 to detect the first magnetic material ( 901), the first magnetic field can be measured.
- the processor 120 may check the first distance 931 between the first Hall sensor 911 and the first magnetic material 901 based on the measured first magnetic field.
- the processor 120 may measure the second magnetic field based on the second magnetic material 902 using the second Hall sensor 912 while the first display 411 and the second display 412 are disposed.
- the processor 120 may check the second distance 932 between the second Hall sensor 912 and the second magnetic material 902 based on the measured second magnetic field.
- the processor 120 can check the difference value between the first distance 931 and the second distance 932, and a placement error 941 occurs between the first display 411 and the second display 412 by the difference value.
- the processor 120 may check the placement error 941 value based on the measured first magnetic field and the second magnetic field, and use the first display 411 and the second display to correct the confirmed placement error value.
- the driving timing for at least one of the two displays 412 can be adjusted.
- the processor 120 can move the display area using dummy areas (eg, upper dummy, lower dummy) included in the first display 411 and the second display 412.
- the processor 120 causes the first display area 331 for the first display 411 and the second display area 332 for the second display 412 to be displayed on substantially the same line (e.g., a reference horizontal line). , batch error values can be corrected.
- An operation of checking placement error information 350 between displays 412 may be included.
- the method according to one embodiment is to determine the first driving time for the first display 411 and the second driving time for the second display 412 when the confirmed placement error information 350 exceeds a set threshold. It may include an operation to check the driving time.
- the method according to one embodiment may include an operation of adjusting at least one of the first driving time and the second driving time based on the confirmed placement error information 350.
- the method according to one embodiment may include displaying at least one content through the first display 411 and the second display 412 based on the adjusted driving time point.
- the first display 411 and the second display 412 have a first area 621 for displaying at least one content and a second area 622 where at least one content is not displayed. It can be included.
- the second area 622 includes a first dummy area 602 extending from one end boundary line of the first area 621, and a second dummy area 603 extending from the other end boundary line of the first area 621. ) may include.
- the operation of displaying at least one content includes displaying one of the first dummy area 602 and the second dummy area 603 based on the driving time at which the display position of the first area 621 is adjusted. It may include an operation of moving in a form that at least partially includes.
- the area of the first area 621 may be maintained constant.
- the sum of the areas of the first dummy area 602 and the second dummy area 603 may be kept constant.
- the first display 411 and the second display 412 may be implemented with a plurality of pixel lines arranged side by side at a set interval.
- An operation of displaying at least one content according to an embodiment may include displaying at least one content by sequentially lighting a plurality of pixel lines along one direction based on an adjusted driving point of time.
- the operation of adjusting at least one driving point in time includes checking the driving start point for the first area 621, corresponding to one of the first display 411 and the second display 412. , and may include an operation of adjusting a driving start point for the first area 621 based on the obtained placement error information 350.
- the operation of checking the placement error information 350 includes using a first image of the first area 621 of the first display 411 from an external camera device and a second image of the second display 412. It may include an operation of acquiring a second image in which the area 622 is photographed, and an operation of checking placement error information 350 based on the first image and the second image.
- the operation of adjusting at least one driving point in time includes the boundary line of the other end of the first area 331 for the first display 411 being the boundary line of the first area 332 for the second display 412. Includes an operation of adjusting a driving point corresponding to one of a first driving point in time for the first display 411 and a second driving point in time for the second display 412 so as to form a line substantially the same as the boundary line at the other end. can do.
- a method includes measuring a first magnetic field based on a first magnetic material 901 included in the first display 411 using a first Hall sensor 911, and a second Hall sensor 912. ), an operation of measuring a second magnetic field based on the second magnetic material 902 included in the second display 412, and based on the first magnetic field and the second magnetic field, the first display An operation of checking the placement error information 350 between 411 and the second display 412 may be further included.
- Electronic devices may be of various types.
- Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
- Electronic devices according to embodiments of this document are not limited to the above-described devices.
- first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
- One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
- any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
- module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
- a processor e.g., processor 120
- the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
- a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
- Computer program products are commodities and can be traded between sellers and buyers.
- the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
- an application store e.g. Play StoreTM
- two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
- each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
- one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
- multiple components eg, modules or programs
- the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
- operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
다양한 실시예에 따르면, 사용자의 머리에 착용되는 전자 장치는, 좌안에 대응하여 배치되는 제 1 디스플레이, 우안에 대응하여 배치되는 제 2 디스플레이, 메모리, 및 제 1 디스플레이, 제 2 디스플레이, 및 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 프로세서는 제 1 디스플레이 및 제 2 디스플레이 간의 배치 오차 정보를 확인할 수 있다. 프로세서는 확인된 배치 오차 정보가 설정된 임계값을 초과하는 경우, 제 1 디스플레이에 대한 제 1 구동시점 및 제 2 디스플레이에 대한 제 2 구동 시점을 확인할 수 있다. 프로세서는 확인된 배치 오차 정보를 기반으로, 제 1 구동시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 프로세서는 조정된 구동 시점을 기반으로, 제 1 디스플레이 및 제 2 디스플레이를 통해, 적어도 하나의 컨텐츠를 표시할 수 있다.
Description
아래의 설명들은 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치에 관한 것이다.
최근 기술의 발달에 따라, 전자 장치는 획일적인 장방형 형상에서 벗어나, 점차 다양한 형상으로 변모되어 가고 있다. 예를 들어, 전자 장치는 사용자의 이용 편의성을 증대시키기 위하여, 신체 일부에 착용이 가능한 웨어러블 전자 장치(wearable electronic device)로 점차 발전하고 있다.
웨어러블 전자 장치는 안경과 같이, 머리에 착용 가능한 헤드 마운트 디스플레이(head mounted display(HMD), 안경형 웨어러블 장치) 장치를 포함할 수 있다. 예를 들어, 웨어러블 전자 장치는 HMD 장치이면서, 카메라를 이용하여 실제 환경을 촬영하고, 촬영된 영상을 가상의 이미지에 겹치는 형태로 표시하는 VST(video see-through) 장치를 포함할 수 있다. 예를 들어, VST 장치는 사용자의 머리에 착용되며, 착용 시, 사용자의 눈 위치에 대응하여 디스플레이가 배치되는 형태일 수 있다. VST 장치는 사용자의 좌안에 대응되는 제 1 디스플레이 및 사용자의 우안에 대응되는 제 2 디스플레이를 포함할 수 있다.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련하여 종래 기술(prior art)로서 적용될 수 있는지에 관해서는 어떠한 주장이나 결정이 제기되지 않는다.
사용자의 머리에 착용되는 HMD 장치는 2 개의 디스플레이에 대한 조립 과정에서 완벽하게 수평을 맞추면서 배치되기 어려울 수 있다. 예를 들어, 2개의 디스플레이는 제 1 디스플레이 및 제 2 디스플레이를 포함하고, 각각의 디스플레이는 개별적으로 설계될 수 있다. 제 1 디스플레이 및 제2 디스플레이가 HMD 장치에 배치되는 과정에서, HMD 장치는 제 1 디스플레이 및 제2 디스플레이에 대한 배치 오차(예: 수직 방향을 따라 틀어짐(vertical misalignment) 현상)가 발생될 수 있다.
일 실시예에 따르면, 사용자는 좌안에 대응하여 배치된 제 1 디스플레이 및 우안에 대응하여 배치된 제 2 디스플레이를 통해 표시된 화면(예: 카메라를 사용하여 촬영된 외부 환경)을 확인할 수 있다. 제 1 디스플레이에 표시된 제 1 화면 및 제 2 디스플레이에 표시된 제 2 화면이 적어도 부분적으로 통합되는 형태로, 사용자는 시각적으로 하나의 화면인 것처럼 인식할 수 있다. 예를 들어, 제 1 디스플레이 및 제2 디스플레이에 대한 배치 오차가 발생하였다는 것은 제 1 화면과 제 2 화면이 동일한 선(예: 기준 수평선) 상에 표시되지 않는 상태임을 의미할 수 있다. 제 1 화면과 제 2 화면이 서로 수평이 맞지 않는 상황에서, 사용자는 피로감 및 불편함이 야기될 수 있다.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 문서에 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예에 따르면, 사용자의 머리에 착용되는 전자 장치는, 좌안에 대응하여 배치되는 제 1 디스플레이, 우안에 대응하여 배치되는 제 2 디스플레이, 메모리, 및 제 1 디스플레이, 제 2 디스플레이, 및 메모리에 작동적으로 연결된 프로세서를 포함할 수 있다. 프로세서는 제 1 디스플레이 및 제 2 디스플레이 간의 배치 오차 정보를 확인할 수 있다. 프로세서는 확인된 배치 오차 정보가 설정된 임계값을 초과하는 경우, 제 1 디스플레이에 대한 제 1 구동시점 및 제 2 디스플레이에 대한 제 2 구동 시점을 확인할 수 있다. 프로세서는 확인된 배치 오차 정보를 기반으로, 제 1 구동시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 프로세서는 조정된 구동 시점을 기반으로, 제 1 디스플레이 및 제 2 디스플레이를 통해, 적어도 하나의 컨텐츠를 표시할 수 있다.
다양한 실시예에 따른 사용자의 머리에 착용되는 전자 장치에서 디스플레이에 대한 구동 시점을 조정하는 방법에 있어서, 좌안에 대응하여 배치된 제 1 디스플레이 및 우안에 대응하여 배치된 제 2 디스플레이 간의 배치 오차 정보를 확인하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 확인된 배치 오차 정보가 설정된 임계값을 초과하는 경우, 제 1 디스플레이에 대한 제 1 구동시점 및 제 2 디스플레이에 대한 제 2 구동 시점을 확인하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 확인된 배치 오차 정보를 기반으로, 제 1 구동시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 조정된 구동 시점을 기반으로, 제 1 디스플레이 및 제 2 디스플레이를 통해, 적어도 하나의 컨텐츠를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 하나 이상의 프로그램을 저장하는 비일시적인 컴퓨터 판독가능 저장 매체(또는, 컴퓨터 프로그램 제품(product))가 기술될 수 있다. 일 실시예에 따르면, 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 좌안에 대응하여 배치된 제 1 디스플레이 및 우안에 대응하여 배치된 제 2 디스플레이 간의 배치 오차 정보를 확인하는 동작, 확인된 배치 오차 정보가 설정된 임계값을 초과하는 경우, 제 1 디스플레이에 대한 제 1 구동시점 및 제 2 디스플레이에 대한 제 2 구동 시점을 확인하는 동작, 확인된 배치 오차 정보를 기반으로, 제 1 구동시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정하는 동작, 및 조정된 구동 시점을 기반으로, 제 1 디스플레이 및 제 2 디스플레이를 통해, 적어도 하나의 컨텐츠를 표시하는 동작을 수행하는 명령어들을 포함할 수 있다.
일 실시예에서, 전자 장치(예: HMD 장치, VST 장치)는 제 1 디스플레이 및 제2 디스플레이에 대한 배치 오차(예: 수직 방향을 따라 틀어짐)를 확인할 수 있고, 제 1 디스플레이 및 제2 디스플레이에 대한 수평이 일치하도록, 제 1 디스플레이 및 제2 디스플레이 중 적어도 하나에 대한 설정 정보를 조정할 수 있다. 일 실시예에서, 전자 장치는 제 1 디스플레이 및 제2 디스플레이에 대한 수평을 실질적으로 동일하게 맞춤으로써, 사용자의 시각적인 불편함을 해소할 수 있다.
다양한 실시예들은 전자 장치(예: 사용자의 머리에 착용된 VST 장치)에 배치된 복수 개의 디스플레이들(예: 좌안에 대응하여 배치된 제 1 디스플레이, 우안에 대응하여 배치된 제 2 디스플레이)에 대한 수평이 일치하도록, 복수 개의 디스플레이들에 대한 설정 정보를 조정할 수 있다. 전자 장치는 제 1 디스플레이의 제 1 화면 및 제 2 디스플레이의 제 2 화면이 실질적으로 동일한 선(예: 기준 수평선)에 맞춰서 표시되도록 디스플레이의 표시 영역을 조정할 수 있고, 사용자의 시각적인 피로감 및 불편함을 줄일 수 있다. 사용자는 표시되는 컨텐츠에 대한 몰입도가 증가할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 본 개시의 일 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 일예를 도시한 도면이다.
도 3a는 본 개시의 일 실시예에 따른 디스플레이 조립체의 전면이 도시된 도면이다.
도 3b는 본 개시의 일 실시예에 따른 디스플레이 조립체의 후면이 도시된 도면이다.
도 3c는 본 개시의 일 실시예에 따른 사용자의 머리에 착용된 전자 장치에서 시각적으로 컨텐츠가 표시되는 일예를 도시한 도면이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 블록도이다.
도 5는 본 개시의 일 실시예에 따른 사용자의 머리에 착용된 전자 장치에서 디스플레이에 대한 구동 시점을 조정하는 방법을 도시한 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 디스플레이 패널의 물리적인 형태 및 디스플레이 패널의 표시 영역을 도시한 예시도이다.
도 7a는 본 개시의 일 실시예에 따른 제 1 디스플레이 및 제 2 디스플레이, 각각에 대응되는 구동 타이밍을 도시한 제 1 그래프이다.
도 7b는 본 개시의 일 실시예에 따른 제 1 디스플레이 및 제 2 디스플레이, 각각에 대응하여, 표시 영역에 대한 시작 시점이 일치하도록, 조정된 구동 타이밍을 도시한 제 2 그래프이다.
도 8a는 본 개시의 일 실시예에 따른 도 7a의 제 1 그래프를 기반으로 시각적으로 표시되는 화면을 도시한 예시도이다.
도 8b는 본 개시의 일 실시예에 따른 도 7b의 제 2 그래프를 기반으로 시각적으로 표시되는 화면을 도시한 예시도이다.
도 9a는 본 개시의 일 실시예에 따른 홀 센서를 사용하여 배치 오차를 확인할 때, 홀 센서의 배치 구조를 도시한 도면이다.
도 9b는 본 개시의 일 실시예에 따른 적어도 하나의 홀 센서를 사용하여, 제 1 디스플레이 및 제 2 디스플레이에 대한 배치 오차를 확인하는 상황을 도시한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 본 개시의 다양한 실시예에 따른 전자 장치의 일예를 도시한 도면이다. 도 3a는 본 개시의 일 실시예에 따른 디스플레이 조립체의 전면이 도시된 도면이다. 도 3b는 본 개시의 일 실시예에 따른 디스플레이 조립체의 후면이 도시된 도면이다. 도 3c는 본 개시의 일 실시예에 따른 사용자의 머리에 착용된 전자 장치에서 시각적으로 컨텐츠가 표시되는 일예를 도시한 도면이다.
도 2를 참조하면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 헤드 마운트 디스플레이(head mounted display(HMD), 안경형 웨어러블 장치) 장치 중 하나에 해당하는 VST(video see-through) 장치를 포함할 수 있다. 전자 장치(101)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))이 배치될 수 있다. 예를 들어, 디스플레이 모듈(160)은 좌안(left eye)에 대응되는 제 1 디스플레이(211) 및 우안(right eye)에 대응되는 제 2 디스플레이(212)를 포함할 수 있다. 전자 장치(101)는 카메라(예: 도 1의 카메라 모듈(180))를 사용하여 촬영된 영상을 디스플레이 모듈(160)(예: 제 1 디스플레이(211), 제 2 디스플레이(212))을 통해 표시할 수 있다. 카메라 모듈(180)은 사용자의 시선 방향과 실질적으로 동일한 방향을 향하도록 배치될 수 있다. 예를 들어, 사용자가 전자 장치(101)를 착용하는 경우, 사용자는 눈으로 실제 주변 환경을 확인하는 것이 아니라, 디스플레이 모듈(160)을 통해 표시된 영상(예: 카메라 모듈(180)을 사용하여 촬영된 영상)을 기반으로, 실제 주변 환경을 확인할 수 있다. 예를 들어, 사용자의 좌안에 대응하여 배치된 제 1 카메라(221)는 외부 환경에 대한 제 1 이미지를 촬영할 수 있고, 사용자의 우안에 대응하여 배치된 제 2 카메라(222)는 외부 환경에 대한 제 2 이미지를 촬영할 수 있다. 전자 장치(101)는 좌안에 대응되는 제 1 디스플레이(211)를 통해, 상기 제 1 이미지를 표시할 수 있고, 우안에 대응되는 제 2 디스플레이(212)를 통해, 상기 제 2 이미지를 표시할 수 있다. 일 실시예에 따르면, 사용자는 제 1 이미지 및 제 2 이미지를 기반으로 초점을 맞출 수 있고, 외부 환경을 확인할 수 있다.
일 실시예에서, 디스플레이 모듈(160)은, 예를 들면, 액정 표시 장치(liquid crystal display; LCD), 디지털 미러 표시 장치(digital mirror device; DMD), 실리콘 액정 표시 장치(liquid crystal on silicon; LCoS), 실리콘 발광 다이오드(light emitting diode(LED) on silicon; LEDoS), 유기 발광 다이오드(organic light emitting diode; OLED) 및/또는 마이크로 엘이디(micro light emitting diode; micro LED) 중 적어도 하나를 포함할 수 있다. 도시되지는 않지만, 디스플레이 모듈(160)이 액정 표시 장치, 디지털 미러 표시 장치 및/또는 실리콘 액정 표시 장치 중 하나로 이루어지는 경우, 전자 장치(101)는 디스플레이 모듈(160)의 화면 출력 영역(예: 표시 영역)으로 빛을 조사하는 광원을 포함할 수 있다.
일 실시 예에서, 디스플레이 모듈(160)이 자체적으로 빛을 발생시킬 수 있는 경우, 예를 들어, 유기 발광 다이오드 및/또는 마이크로 엘이디 중 하나로 이루어지는 경우, 전자 장치는 별도의 광원을 포함하지 않더라도 사용자에게 양호한 품질의 가상 영상을 제공할 수 있다. 일 실시 예에서, 디스플레이 모듈(160)이 유기 발광 다이오드 및/또는 마이크로 엘이디로 구현된다면, 광원이 불필요하므로, 전자 장치(101)가 경량화될 수 있다. 전자 장치(101)는, 디스플레이 모듈(160)(예: 제 1 디스플레이(211), 제 2 디스플레이(212))에 대응하여, 제 1 투명 부재 및/또는 제 2 투명 부재가 부착될 수 있다. 전자 장치(101)가 머리에 착용된 사용자는 제 1 투명 부재를 투과하여, 제 1 화면을 확인할 수 있고, 제 2 투명 부재를 투과하여, 제 2 화면을 확인할 수 있다. 제 1 투명 부재 및/또는 제 2 투명 부재는 글래스 플레이트, 플라스틱 플레이트 및/또는 폴리머 중 적어도 하나로 형성될 수 있으며, 투명 또는 반투명하게 제작될 수 있다. 예를 들어, 제 1 투명 부재는 사용자의 좌안에 대면하게 배치될 수 있고, 제 2 투명 부재는 사용자의 우안에 대면하게 배치될 수 있다.
도 2를 참조하면, 전자 장치(101)의 정면 방향(예: +y 방향, 사용자의 시선 방향)에 대응하여 복수 개의 카메라(예: 제 1 카메라(221), 제 2 카메라(222))가 배치된 것으로 도시되었으나, 카메라의 개수에 한정되지는 않는다. 카메라 모듈(180)은 좌안을 기반으로 실질적으로 응시하는 방향을 촬영하는 좌안 카메라(예: 제 1 카메라) 및/또는 우안을 기반으로 실질적으로 응시하는 방향을 촬영하는 우안 카메라(예: 제 2 카메라)를 포함할 수 있다. 카메라 모듈(180)은 적어도 두 개 이상의 카메라를 포함할 수 있다. 카메라 모듈(180)은 사용자의 시선 방향과 실질적으로 동일한 방향을 향하도록 배치될 수 있고, 전자 장치(101)의 정면 방향에 대한 주변 환경을 촬영할 수 있다.
전자 장치(101)는 사용자의 눈동자의 움직임을 추적하기 위한 동공 추적(eye tracking) 카메라(321, 322)를 포함할 수 있다. 예를 들어, 동공 추적 카메라(321, 322)는 사용자의 좌안에 대한 좌-눈동자의 움직임을 추적하기 위한 제 1 동공 추적 카메라(321) 및 사용자의 우안에 대한 우-눈동자의 움직임을 추적하기 위한 제 2 동공 추적 카메라(322)를 포함할 수 있다. 제 1 동공 추적 카메라(321)는 전자 장치(101)가 사용자의 머리에 착용되는 상황에서, 좌안(left eye)의 움직임을 추적할 수 있다. 전자 장치(101)는 제 1 동공 추적 카메라(321)를 사용하여, 좌안이 응시하는 영역을 확인할 수 있다. 제 2 동공 추적 카메라(322)는 전자 장치(101)가 사용자의 머리에 착용되는 상황에서, 우안(right eye)의 움직임을 추적할 수 있다. 전자 장치(101)는 제 2 동공 추적 카메라(322)를 사용하여, 우안이 응시하는 영역을 확인할 수 있다. 예를 들어, 사용자가 응시하는 영역은 디스플레이 모듈(160)을 통해 화면이 표시되는 영역(331, 332)(예: 표시 영역)을 의미할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 좌안이 응시하는 제 1 표시 영역(331)과 우안이 응시하는 제 2 표시 영역(332)이 동일한 선(예: 기준 수평선) 상에 배치되는지 여부를 판단할 수 있다. 예를 들어, 제 1 표시 영역(331)의 하단 경계 라인(331-1) 및 제 2 표시 영역(332)의 하단 경계 라인(332-1) 중 하나의 라인이 기준 수평선으로 설정될 수 있다. 전자 장치(101)는 제 1 표시 영역(331)의 하단 경계 라인(331-1) 및 제 2 표시 영역(332)의 하단 경계 라인(332-1)이 설정된 기준 수평선에 일치하는지 여부를 판단할 수 있다. 전자 장치(101)는 설정된 기준 수평선을 기반으로 제 1 표시 영역(331)의 하단 경계 라인(331-1) 및 제 2 표시 영역(332)의 하단 경계 라인(332-1) 중 적어도 하나의 라인을 조정할 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)에 포함된 제 1 디스플레이(211) 및 제 2 디스플레이(212)는 각각의 눈동자 위치(예: 좌안, 우안)를 기반으로, 개별적으로 설계될 수 있다. 전자 장치(101)는 디스플레이 모듈(160)이 배치되는 공정에 있어서, 제 1 디스플레이(211) 및 제 2 디스플레이(212)가 독립적으로 배치될 수 있고, 제 1 디스플레이(211) 및 제 2 디스플레이(212) 간의 배치 오차가 발생될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211) 및 제 2 디스플레이(212)에 대한 배치 오차 정보(예: 배치 오차값)를 확인할 수 있고, 확인된 배치 오차 정보를 기반으로 제 1 디스플레이(211) 및 제 2 디스플레이(212) 중 적어도 하나의 표시 영역(예: 제 1 표시 영역(331), 제 2 표시 영역(332))을 조정할 수 있다. 전자 장치(101)는 제 1 디스플레이(211)를 통해 표시되는 제 1 화면 및 제 2 디스플레이(212)를 통해 표시되는 제 2 화면이 실질적으로 동일한 선(line)(예: 기준 수평선) 상에 표시되도록, 제 1 디스플레이(211) 및 제 2 디스플레이(212) 중 적어도 하나에 대응되는 표시 영역의 위치를 조정할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211)의 제 1 표시 영역(331)과 제 2 디스플레이(212)의 제 2 표시 영역(332)이 실질적으로 동일한 선(line)(예: 기준 수평선) 상에 위치하도록, 제 1 디스플레이(211) 및 제 2 디스플레이(212) 중 적어도 하나에 대한 표시 영역의 위치를 조정할 수 있다. 예를 들어, 전자 장치(101)는 제 1 표시 영역(331)의 제 1 하단 경계 라인(331-1)을 기준 수평선으로 결정할 수 있고, 제 2 표시 영역(332)의 제 2 하단 경계 라인(332-1)이 기준 수평선인 제 1 하단 경계 라인(331-1)에 맞춰지도록, 제 2 표시 영역(332)의 표시 위치를 조정할 수 있다. 예를 들어, 전자 장치(101)는 제 2 하단 경계 라인(332-1)이 제 1 하단 경계 라인(331-1)과 실질적으로 동일한 선(line)(예: 기준 수평선) 상에 위치하도록 제 2 영역(332)의 표시 위치를 조정할 수 있다. 일 실시예에 따르면, 기준 수평선은 제 1 하단 경계 라인(331-1) 및 제 2 하단 경계 라인(332-1) 중 하나로 결정되거나, 또는, 사용자의 설정에 의해 임의적으로 결정될 수도 있다.
일 실시예에 따르면, 제 1 표시 영역(331)의 제 1 하단 경계 라인(331-1)과 제 2 표시 영역(332)의 제 2 하단 경계 라인(332-1)이 동일한 선(예: 기준 수평선) 상에 위치하는 경우, 사용자의 시각적인 피로감 및 시각적인 불편함이 줄어들 수 있다. 사용자는 제 1 표시 영역(331) 및 제 2 표시 영역(332)을 통해 표시되는 컨텐츠에 대한 몰입도가 증가할 수 있다.
일 실시예에 따르면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 헤드 마운트 디스플레이(head mounted display(HMD), 안경형 웨어러블 장치) 장치 중 하나에 해당하는 VST(video see-through) 장치를 포함할 수 있다. 전자 장치(101)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여, 디스플레이 조립체(301)가 배치될 수 있다. 디스플레이 조립체(301)는 전자 장치(101)를 구성하는 하우징의 일부로, 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160)), 카메라 모듈(예: 도 1의 카메라 모듈(180)), 및/또는 센서 모듈(예: 도 1의 센서 모듈(176)) 중 적어도 하나를 포함할 수 있다.
도 3a 및 도 3b를 참조하면, 디스플레이 조립체(301)는 전자 장치(101)의 전면 방향(예: +y 방향, 사용자의 응시 방향)에 대응하여 복수 개의 카메라(예: 제 1 카메라(221), 제 2 카메라(222))가 배치될 수 있다. 예를 들어, 디스플레이 조립체(301)는 사용자의 좌안에 대응되는 제 1 카메라(221) 및 사용자의 우안에 대응되는 제 2 카메라(222)를 포함할 수 있다. 디스플레이 조립체(301)는 제 1 카메라(221) 및 제 2 카메라(222)를 사용하여, 전자 장치(101)의 정면 방향(예: +y 방향)에 대한 외부 환경을 촬영할 수 있다. 디스플레이 조립체(301)는 외부 환경에 노출되는 제 1 표면(311)(예: 전면) 및 외부 환경에 노출되지 않으면서, 착용 시, 사용자의 피부에 밀착되는 제 2 표면(312)(예: 후면)을 포함할 수 있다. 예를 들어, 전자 장치(101)가 사용자의 머리에 착용되는 경우, 디스플레이 조립체(301)의 제 1 표면(311)은 외부 환경에 노출되는 상태이고, 디스플레이 조립체(301)의 제 2 표면(312)은 사용자의 얼굴에 적어도 부분적으로 밀착되는 상태일 수 있다. 디스플레이 조립체(301)는 제 1 표면(311)에 적어도 하나의 거리 센서(313, 314, 315, 316)가 배치될 수 있다. 예를 들어, 거리 센서(313, 314, 315, 316)는 주변에 배치된 오브젝트와의 거리를 측정할 수 있고, 적외선 센서, 초음파 센서 및/또는 라이다(LiDAR(light detection and ranging)) 센서 중 적어도 하나의 센서를 포함할 수 있다. 거리 센서(313, 314, 315, 316)는 적외선 센서, 초음파 센서 및/또는 라이다 센서 중 적어도 하나를 기반으로 구현될 수 있다. 도 3a를 참조하면, 디스플레이 조립체(301)의 제 1 표면(311)에 4개의 거리 센서(313, 314, 315, 316)가 배치된 것으로 도시되었으나, 이에 한정되지는 않는다.
도 3b를 참조하면, 디스플레이 조립체(301)는 전자 장치(101)의 후면 방향(예: -y 방향, 사용자의 응시 방향의 반대 방향)에 대응하여 복수 개의 디스플레이(예: 제 1 디스플레이(211), 제 2 디스플레이(212))가 배치될 수 있다. 예를 들어, 디스플레이 조립체(301)는 제 2 표면(312)(예: 후면)에서, 사용자의 좌안에 대응되는 제 1 디스플레이(211) 및 사용자의 우안에 대응되는 제 2 디스플레이(212)가 배치될 수 있다. 전자 장치(101)가 사용자의 머리에 착용되는 경우, 사용자의 좌안 위치에 대응하여 제 1 디스플레이(211)가 배치될 수 있고, 사용자의 우안 위치에 대응하여 제 2 디스플레이(212)가 배치될 수 있다. 디스플레이 조립체(301)는 제 2 표면(312)에 적어도 부분적으로 복수 개의 동공 추적 카메라(예: 제 1 동공 추적 카메라(321), 제 2 동공 추적 카메라(322))가 배치될 수 있다. 예를 들어, 동공 추적 카메라(321, 322)는 사용자의 동공의 움직임을 추적할 수 있다. 제 1 동공 추적 카메라(321)는 좌안의 움직임을 추적할 수 있고, 제 2 동공 추적 카메라(322)는 우안의 움직임을 추적할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 상기 동공의 움직임을 기반으로, 사용자가 응시하는 방향을 확인할 수 있다. 디스플레이 조립체(301)는 제 2 표면(312)에 적어도 부분적으로 복수 개의 얼굴 인식 카메라(예: 제 1 얼굴 인식 카메라(341), 제 2 얼굴 인식 카메라(342))가 배치될 수 있다. 예를 들어, 얼굴 인식 카메라(341, 342)는 전자 장치(101)가 사용자의 얼굴에 착용되는 상황에서 사용자의 얼굴을 인식할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 얼굴 인식 카메라를 사용하여, 전자 장치(101)가 사용자의 얼굴에 착용되었는지 여부를 판단할 수도 있다.
도 3c를 참조하면, 디스플레이 조립체(301)가 결합된 전자 장치(101)가 사용자의 머리에 착용될 때, 제 1 디스플레이(211) 및 제 2 디스플레이(212)를 통해 화면이 표시되는 상황을 도시한다. 예를 들어, 제 1 디스플레이(211)는 사용자의 좌안에 대응하여 배치될 수 있고, 제 2 디스플레이(212)는 사용자의 우안에 대응하여 배치될 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)(예: 제 1 디스플레이(211), 제 2 디스플레이(212))은 화면이 표시되는 제 1 영역(예: 표시 영역) 및 화면이 표시되지 않는 제 2 영역(예: 미표시 영역)으로 구분될 수 있다. 예를 들어, 디스플레이 모듈(160)은 디스플레이 패널(display panel)을 포함하고, 디스플레이 패널은 시각적으로 화면이 출력되는 제 1 영역(예: 제 1 표시 영역(331), 제 2 표시 영역(332))과 화면이 출력되지 않는 제 2 영역(예: 미표시 영역)으로 구분될 수 있다. 디스플레이 패널은 적어도 일부분이 제 1 영역(예: 표시 영역)으로 설정될 수 있고, 제 1 영역 외의 나머지 영역이 제 2 영역(예: 더미(dummy) 영역)으로 설정될 수 있다. 제 2 영역은 제 1 영역을 적어도 부분적으로 감싸는 형태로 설정될 수 있다.
도 3c를 참조하면, 제 1 디스플레이(211)는 제 1 표시 영역(331)을 기반으로 제 1 화면을 표시할 수 있고, 제 2 디스플레이(212)는 제 2 표시 영역(332)을 기반으로 제 2 화면을 표시할 수 있다. 예를 들어, 제 1 화면은 제 1 카메라(221)를 사용하여 촬영된 외부 영상을 포함할 수 있고, 제 2 화면은 제 2 카메라(222)를 사용하여 촬영된 외부 영상을 포함할 수 있다. 사용자는 좌안을 통해, 제 1 표시 영역(331)에 표시된 제 1 화면을 확인할 수 있고, 우안을 통해, 제 2 표시 영역(332)에 표시된 제 2 화면을 확인할 수 있다. 일 실시예에 따르면, 디스플레이 조립체(301)에 제 1 디스플레이(211) 및 제 2 디스플레이(212)가 배치되는 과정에 있어서, 제 1 디스플레이(211)의 제 1 표시 영역(331)은 제 1 라인(331-1)(예: 경계 라인)을 기반으로 구현될 수 있고, 제 2 디스플레이(212)의 제 2 표시 영역(332)은 제 2 라인(332-1)(예: 경계 라인)을 기반으로 구현될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211) 및 제 2 디스플레이(212)가 각각 개별적으로 디스플레이 조립체(301)에 배치되는 공정에서, 제 1 디스플레이(211) 및 제 2 디스플레이(212) 간의 배치 오차(예: 수직 틀어짐(vertical misalignment) 현상, 도 3c의 제 1 거리(350))가 발생할 수 있다. 예를 들어, 배치 오차가 발생된 상태는 제 1 표시 영역(331)의 제 1 라인(331-1)과 제 2 표시 영역(332)의 제 2 라인(332-1)이 실질적으로 동일 선 상에 위치하지 않는 상태일 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211) 및 제 2 디스플레이(212) 간의 배치 오차 정보(예: 도 3c의 제 1 거리(350))를 확인할 수 있고, 확인된 배치 오차 정보(350)를 기반으로 제 1 표시 영역(331)의 제 1 라인(331-1)과 제 2 표시 영역(332)의 제 2 라인(332-1)이 실질적으로 동일한 선(예: 기준 수평선) 상에 위치하도록 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나의 표시 위치를 조정할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211)에서 화면이 표시되는 제 1 표시 시점 및 제 2 디스플레이(212)에서 화면이 표시되는 제 2 표시 시점이 서로 일치하도록 제 1 디스플레이(211) 및 제 2 디스플레이(212) 중 적어도 하나의 표시 시점을 조정할 수 있다. 예를 들어, 제 1 표시 시점 및 제 2 표시 시점이 일치하게 되면, 제 1 표시 영역(331)을 통한 제 1 화면과 제 2 표시 영역(332)을 통한 제 2 화면이 실질적으로 동일한 선(예: 기준 수평선) 상에서 표시될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제 1 디스플레이(211) 및 제 2 디스플레이(212)에 대한 배치 오차(예: 제 1 거리(350))가 발생하지 않도록, 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나에 대응되는 표시 위치를 조정할 수 있다. 예를 들어, 제 1 표시 영역(331) 및 제 2 표시 영역(332)에 대한 수평이 일치하도록 조정될 수 있다. 이는 사용자의 시각적인 피로감 및 불편함을 줄일 수 있고, 표시되는 컨텐츠에 대한 사용자의 몰입도가 증가할 수 있다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 블록도이다.
도 4의 전자 장치(101)는 도 1의 전자 장치(101)와 적어도 일부 유사하거나, 전자 장치(101)의 다른 구성 요소들을 더 포함할 수 있다.
도 4를 참조하면, 전자 장치(101)(예: 도 1의 전자 장치(101))는 프로세서(120)(예: 도 1의 프로세서(120)), 메모리(130)(예: 도 1의 메모리(130)), 디스플레이 모듈(160)(예: 도 1의 디스플레이 모듈(160)), 센서 모듈(176)(예: 도 1의 센서 모듈(176)), 카메라 모듈(180)(예: 도 1의 카메라 모듈(180)), 및/또는 통신 모듈(190)(예: 도 1의 통신 모듈(190))을 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 사용자의 좌안에 대응되는 제 1 디스플레이(411)(예: 도 2의 제 1 디스플레이(211)) 및 사용자의 우안에 대응되는 제 2 디스플레이(412)(예: 도 2의 제 2 디스플레이(212))를 포함할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보를 확인하기 위한 홀 센서(hall IC)(413)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 촬영된 영상을 이미지로 변환하기 위한 이미지 센서(414)를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 헤드 마운트 디스플레이(HMD) 장치 중 하나에 해당하는 VST(video see-through) 장치를 포함할 수 있다. VST 장치는 사용자의 머리에 착용되는 형태의 전자 장치로, 사용자의 눈 위치에 대응하여 디스플레이 모듈(160)이 배치될 수 있다. 예를 들어, 전자 장치(101)가 사용자의 머리에 착용될 때, 사용자의 좌안에 대응하여 제 1 디스플레이(411)가 배치될 수 있고, 사용자의 우안에 대응하여 제 2 디스플레이(412)가 배치될 수 있다. VST 장치는 카메라 모듈(180)(예: 도 2의 제 1 카메라(221), 제 2 카메라(222))을 사용하여 주변 환경을 촬영할 수 있고, 촬영된 영상을 디스플레이 모듈(160)(예: 제 1 디스플레이(411), 제 2 디스플레이(412))을 통해 표시할 수 있다. 예를 들어, VST 장치는 카메라 모듈(180)의 이미지 센서(414)를 기반으로 촬영된 영상을 변환할 수 있고, 디스플레이 모듈(160)을 통해 변환된 영상을 출력할 수 있다. 사용자는 디스플레이 모듈(160)에 표시된 영상을 기반으로 실제 주변 환경을 인식할 수 있다. 일 실시예에 따르면, 전자 장치(101)의 카메라 모듈(180)은 사용자의 시선 방향과 실질적으로 동일한 방향으로 배치될 수 있다. 예를 들어, 제 1 카메라(221)는 사용자의 좌안에 기반하여 배치될 수 있고, 제 2 카메라(222)는 사용자의 우안에 기반하여 배치될 수 있다. 전자 장치(101)는 사용자의 머리에 고정된 상태로 착용되며, 사용자의 머리 움직임을 기반으로 카메라 모듈(180)이 가리키는 방향(예: 카메라 모듈(180)이 촬영하는 방향, 사용자의 응시 방향)이 변경될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자의 양안(예: 좌안, 우안)에 대응하여, 개별적으로 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치될 수 있다. 전자 장치(101)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 포함하는 디스플레이 조립체(예: 도 3a의 디스플레이 조립체(301))를 포함할 수 있다. 일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 각각 개별적으로 디스플레이 조립체(301)에 배치되는 공정에서, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차(예: 수직 틀어짐(vertical misalignment) 현상)가 발생할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 센서 모듈(176) 및 카메라 모듈(180)을 사용하여, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보를 확인할 수 있고, 확인된 배치 오차 정보가 없어지도록 제 1 디스플레이(411)의 제 1 표시 영역(예: 도 3c의 제 1 표시 영역(331)) 및 제 2 디스플레이(412)의 제 2 표시 영역(예: 도 3c의 제 2 표시 영역(332)) 중 적어도 하나에 대한 표시 위치를 조정할 수 있다. 예를 들어, 프로세서(120)는 제 1 표시 영역(331)과 제 2 표시 영역(332)이 실질적으로 동일한 선(예: 기준 수평선) 상에 표시되도록, 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나에 대한 표시 위치를 조정할 수 있다. 예를 들어, 프로세서(120)는 제 1 디스플레이(411)에서 화면이 표시되는 제 1 표시 시점 및 제 2 디스플레이(412)에서 화면이 표시되는 제 2 표시 시점이 서로 일치하도록, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나의 표시 시점을 조정할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 메모리(130)에 저장된 프로그램(예: 도 1의 프로그램(140))을 실행하여, 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예를 들어, 프로세서(120)는 카메라 모듈(180)을 사용하여 주변 영상을 촬영할 수 있고, 이미지 센서(414)를 기반으로 촬영된 영상을 변환할 수 있다. 프로세서(120)는 변환된 영상을 디스플레이 모듈(160)(예: 제 1 디스플레이(411), 제 2 디스플레이(412))을 통해 표시함으로써, 사용자에게 상기 영상을 제공할 수 있다. 프로세서(120)는 센서 모듈(176) 및 카메라 모듈(180)을 사용하여, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보를 확인할 수 있고, 확인된 배치 오차 정보를 기반으로 제 1 디스플레이(411)의 제 1 표시 영역(331) 및 제 2 디스플레이(412)의 제 2 표시 영역(332) 중 적어도 하나의 표시 위치를 조정할 수 있다. 프로세서(120)는 제 1 표시 영역(331) 및 제 2 표시 영역(332)이 실질적으로 동일한 선(예: 기준 수평선) 상에 표시되도록, 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나에 대한 표시 위치를 조정할 수 있다.
일 실시예에 따르면, 메모리(130)는 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보를 확인하고, 확인된 배치 오차 정보를 기반으로 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나에 대한 표시 위치를 조정하는 과정에 있어서, 관련된 데이터들(예: 배치 오차 정보와 관련된 데이터, 홀 센서(413) 관련 데이터, 카메라 모듈(180)을 사용하여 촬영된 이미지와 관련된 데이터, 제 1 디스플레이(411)의 제 1 표시 영역(331)과 관련된 데이터, 제 2 디스플레이(412)의 제 2 표시 영역(332)과 관련된 데이터, 및/또는 디스플레이 모듈(160)을 통해 화면이 표시되는 시점과 관련된 데이터)을 저장할 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 전자 장치(101)가 사용자의 머리에 착용되는 상황에서 사용자의 눈 위치(예: 양안)에 대응하여 배치될 수 있다. 예를 들어, 전자 장치(101)가 착용될 때, 디스플레이 모듈(160)은 안경과 같이, 사용자의 눈 위치에 인접하게 배치되는 형태로 구현될 수 있다. 디스플레이 모듈(160)은 사용자의 좌안에 대응하여 배치된 제 1 디스플레이(411) 및 사용자의 우안에 대응하여 배치된 제 2 디스플레이(412)를 포함할 수 있다. 디스플레이 모듈(160)은 디스플레이 패널(display panel)을 포함할 수 있다. 디스플레이 패널은 시각적으로 화면이 출력되는 제 1 영역(예: 표시 영역)과 화면이 출력되지 않는 제 2 영역(예: 미표시 영역)으로 구분될 수 있다. 예를 들어, 디스플레이 패널의 적어도 일부 영역이 제 1 영역으로 설정될 수 있고, 제 1 영역 외의 나머지 영역이 제 2 영역으로 설정될 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)에 포함된 디스플레이 패널은 제 1 영역 및 제 2 영역을 포함하는 형태로 구현될 수 있다. 예를 들어, 디스플레이 패널은 물리적으로 제 1 영역 및 제 2 영역을 포함하는 크기로 구현될 수 있고, 적어도 일부분에 해당하는 제 1 영역을 기반으로 화면이 표시되도록 설정될 수 있다.
일 실시예에 따르면, 디스플레이 패널을 구성하는 복수 개의 픽셀들을 기반으로, 적어도 하나의 픽셀 라인이 형성되고, 복수 개의 픽셀 라인들(예: 제 1 픽셀 라인, 제 2 픽셀 라인, 제 3 픽셀 라인)이 지정된 간격에 따라, 나란히 배열되는 구조로 디스플레이 패널이 설계될 수 있다. 예를 들어, 디스플레이 패널은 복수 개의 픽셀 라인들이 순차적으로 켜 나가는 방식으로 화면을 출력할 수 있다. 디스플레이 패널은 화면이 출력되는 제 1 영역(예: 표시 영역, active 영역)과 화면이 출력되지 않는 제 2 영역(예: 더미(dummy) 영역)으로 구분될 수 있다. 제 1 영역 및 제 2 영역은 복수 개의 픽셀 라인들을 기반으로 구현될 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 영역에 포함된 복수 개의 픽셀 라인들을 순차적으로 켜 나가는 방식으로 화면을 출력할 수 있다. 제 2 영역은 제 1 영역의 상단 경계 라인을 따라 연장되는 제 1 더미 영역(예: upper dummy) 및 제 1 영역의 하단 경계 라인을 따라 연장되는 제 2 더미 영역(예: lower dummy)을 포함할 수 있다. 예를 들어, 제 1 더미 영역 및 제 2 더미 영역은 복수 개의 픽셀 라인들을 포함할 수 있고, 디스플레이 패널의 설정에 기반하여 복수 개의 픽셀 라인들이 점등될 수 있다. 제 1 더미 영역 및 제 2 더미 영역은 적어도 부분적으로 화면을 출력하기 위한 표시 영역으로 활용될 수 있다. 일 실시예에 따르면, 제 2 영역에 포함된 제 1 더미 영역 및 제 2 더미 영역에 대한 면적의 합은 일정하게 유지될 수 있다. 예를 들어, 제 1 더미 영역의 일부 영역이 표시 영역(예: active 영역)으로 활용되면, 제 1 더미 영역의 면적은 이전보다 축소되지만, 상대적으로 제 2 더미 영역의 면적은 상기 일부 영역만큼 확대될 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 2 영역(예: 미표시 영역)에 포함된 제 1 더미 영역 및 제 2 더미 영역을 기반으로, 제 1 영역(예: 표시 영역, active 영역)에 대한 위치를 조정할 수 있다. 예를 들어, 프로세서(120)는 제 1 영역이 제 1 더미 영역의 일부 면적을 포함하는 형태로, 제 1 영역을 제 1 더미 영역 쪽으로 이동시킬 수 있다. 이 경우, 제 1 영역(예: active 영역)의 면적은 일정하게 유지되므로, 상대적으로 제 2 더미 영역은 상기 일부 면적만큼 면적이 확장될 수 있다. 제 1 더미 영역 및 제 2 더미 영역에 대한 면적의 합은 일정하게 유지될 수 있다. 다른 예를 들어, 프로세서(120)는 제 1 영역이 제 2 더미 영역의 일부 면적을 포함하는 형태로, 제 1 영역을 제 2 더미 영역 쪽으로 이동시킬 수 있다. 이 경우, 제 1 영역(예: active 영역)의 면적은 일정하게 유지되므로, 상대적으로 제 1 더미 영역은 상기 일부 면적만큼 면적이 확장될 수 있다. 제 1 더미 영역 및 제 2 더미 영역에 대한 면적의 합은 일정하게 유지될 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 1 더미 영역 및 제 2 더미 영역을 활용하여, 제 1 영역의 위치를 조정할 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 디스플레이(411)의 제 1 영역과 제 2 디스플레이(412)의 제 1 영역이 서로 동일한 선(예: 기준 수평선) 상에 배치되도록, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나에 대한 제 1 영역의 위치를 조정할 수 있다.
일 실시예에 따르면, 센서 모듈(176)은 전자 장치(101)의 디스플레이 조립체(예: 도 3a의 디스플레이 조립체(301))에 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치되는 조립 공정에 있어서, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 배치 오차가 발생하는지 여부를 감지할 수 있다. 센서 모듈(176)은 자성체(예: 자력 부재, 자석(magnet))를 감지하기 위한 홀 센서(413)(hall IC)를 포함할 수 있다. 예를 들어, 디스플레이 조립체(301)에 적어도 하나의 홀 센서(413)가 포함된 구조에서, 적어도 하나의 자성체와 결합된, 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 디스플레이 조립체(301)에 배치될 수 있다. 이 경우, 프로세서(120)는 적어도 하나의 홀 센서(413)를 기반으로, 제 1 디스플레이(411)에 결합된 제 1 자성체에 대한 제 1 자기장 및 제 2 디스플레이(412)에 결합된 제 2 자성체에 대한 제 2 자기장을 측정할 수 있다. 프로세서(120)는 측정된 제 1 자기장 및 제 2 자기장을 기반으로, 제 1 디스플레이(411)의 위치 및 제 2 디스플레이(412)의 위치를 확인할 수 있다. 프로세서(120)는 제 1 디스플레이(411)의 위치 및 제 2 디스플레이(412)의 위치를 기반으로 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 배치 오차(예: 배치 오차 정보)가 발생하였는지 여부를 판단할 수 있다. 다양한 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 배치 오차가 발생하는지 여부를 감지함에 있어서, 홀 센서(413)에 한정되지 않으며, 여러 종류의 센서(예: 근접 센서, 조도 센서)가 활용될 수 있다.
일 실시예에 따르면, 카메라 모듈(180)은 사용자가 전자 장치(101)를 머리에 착용하는 상황에서, 사용자의 시선 방향과 실질적으로 동일한 방향을 향하도록 배치될 수 있다. 예를 들어, 카메라 모듈(180)은 사용자가 실제로 보는 주변 환경과 유사하도록, 영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 사용자의 좌안에 대응되는 제 1 카메라(예: 도 2의 제 1 카메라(221)), 사용자의 우안에 대응되는 제 2 카메라(예: 도 2의 제 2 카메라(222)), 눈동자의 움직임을 추적하기 위한 동공 추적 카메라(예: 도 3b의 동공 추적 카메라(321, 322)), 및/또는 사용자의 얼굴을 인식하기 위한 얼굴 인식 카메라(예: 도 3b의 얼굴 인식 카메라(341, 342))를 포함할 수 있다. 도 4를 참조하면, 카메라 모듈(180)은 카메라를 사용하여 촬영된 영상을 이미지로 변환하기 위한 이미지 센서(414)를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 카메라 모듈(180)을 사용하여 영상을 촬영할 수 있고, 이미지 센서(414)를 기반으로 촬영된 영상을 디지털 이미지로 변환할 수 있다. 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 통해, 변환된 이미지를 표시할 수 있다.
통신 모듈(190)은, 예를 들어, 전자 장치(101)(예: HMD 장치, VST 장치)와 외부 전자 장치(예: 서버(server), 스마트폰, PC(personal computer), PDA(personal digital assistant), 또는 액세스 포인트(access point))간의 직접(예: 유선) 통신 채널 또는, 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서(communication processor)를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 디스플레이 모듈(160)에 포함된 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치되는 과정에서, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 틀어짐 현상(예: 배치 오차가 발생)을 확인할 수 있고, 틀어짐 현상에 따른 배치 오차 정보를 기반으로 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나에 대한 표시 영역을 조정할 수 있다. 프로세서(120)는 제 1 디스플레이(411)의 제 1 화면과 제 2 디스플레이(412)의 제 2 화면이 시각적으로 동일한 선(예: 기준 수평선) 상에 배치된 것으로 보여지도록, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나에 대한 표시 영역의 위치를 조정할 수 있다. 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412), 각각에 포함된 더미 영역을 활용하여, 표시 영역의 위치를 조정할 수 있다.
다양한 실시예에 따르면, 사용자의 머리에 착용되는 전자 장치(예: 도 1의 전자 장치(101))는, 좌안에 대응하여 배치되는 제 1 디스플레이(예: 도 4의 제 1 디스플레이(411)), 우안에 대응하여 배치되는 제 2 디스플레이(예: 도 4의 제 2 디스플레이(412)), 메모리(예: 도 4의 메모리(130)), 및 제 1 디스플레이(411), 제 2 디스플레이(412), 및 메모리(130)에 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120))를 포함할 수 있다. 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보(예: 도 3c의 제 1 거리(350))를 확인할 수 있다. 프로세서(120)는 확인된 배치 오차 정보(350)가 설정된 임계값을 초과하는 경우, 제 1 디스플레이(411)에 대한 제 1 구동시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인할 수 있다. 프로세서(120)는 확인된 배치 오차 정보(350)를 기반으로, 제 1 구동시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 프로세서(120)는 조정된 구동 시점을 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시할 수 있다.
일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 적어도 하나의 컨텐츠가 표시되기 위한 제 1 영역(621) 및 적어도 하나의 컨텐츠가 표시되지 않는 제 2 영역(622)을 포함할 수 있다.
일 실시예에 따르면, 제 2 영역(622)은 제 1 영역(621)의 일단 경계 라인으로부터 연장된 제 1 더미 영역(602), 및 제 1 영역(621)의 타단 경계 라인으로부터 연장된 제 2 더미 영역(603)을 포함할 수 있다.
일 실시예에 따르면, 제 1 영역(621)의 표시 위치가 조정된 구동 시점을 기반으로, 제 1 더미 영역(602) 및 제 2 더미 영역(603) 중 하나를 적어도 부분적으로 포함하는 형태로 이동될 수 있다.
일 실시예에 따르면, 제 1 영역(621)이 이동하는 상황에서, 제 1 영역(621)의 면적은 일정하게 유지될 수 있다.
일 실시예에 따르면, 제 1 더미 영역(602)과 제 2 더미 영역(603)에 대한 면적의 합은 일정하게 유지될 수 있다.
일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 복수 개의 픽셀 라인들이 설정된 간격에 따라 나란히 배열되는 형태로 구현될 수 있다. 프로세서(120)는 적어도 하나의 컨텐츠를 표시하는 상황에 응답하여, 조정된 구동 시점을 기반으로 복수 개의 픽셀 라인들을 일 방향을 따라 순차적으로 점등할 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 하나에 대응되는, 제 1 영역(621)에 대한 구동 시작 시점을 확인하고, 획득된 배치 오차 정보(350)를 기반으로 제 1 영역(621)에 대한 구동 시작 시점을 조정할 수 있다.
일 실시예에 따르면, 프로세서(120)는 외부 카메라 장치로부터 제 1 디스플레이(411)의 제 1 영역(621)이 촬영된 제 1 이미지 및 제 2 디스플레이(412)의 제 2 영역(622)이 촬영된 제 2 이미지를 획득하고, 제 1 이미지 및 제 2 이미지를 기반으로 배치 오차 정보(350)를 확인할 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 디스플레이(411)에 대한 제 1 영역(331)의 타단 경계 라인이 제 2 디스플레이(412)에 대한 제 1 영역(332)의 타단 경계 라인과 실질적으로 동일한 라인을 형성하도록, 제 1 디스플레이(411)에 대한 제 1 구동시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점 중 하나에 대응되는 구동 시점을 조정할 수 있다.
일 실시예에 따른 전자 장치(101)는 제 1 디스플레이(411)에 포함된 제 1 자성체(901)를 센싱하기 위한 제 1 홀 센서(911), 및 제 2 디스플레이(412)에 포함된 제 2 자성체(902)를 센싱하기 위한 제 2 홀 센서(912)를 더 포함할 수 있다. 프로세서(120)는 제 1 홀 센서(911)를 사용하여, 제 1 자성체(901)에 기반한 제 1 자기장을 측정할 수 있다. 프로세서(120)는 제 2 홀 센서(912)를 사용하여, 제 2 자성체(902)에 기반한 제 2 자기장을 측정할 수 있다. 프로세서(120)는 제 1 자기장 및 제 2 자기장을 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보(350)를 확인할 수 있다.
도 5는 본 개시의 일 실시예에 따른 사용자의 머리에 착용된 전자 장치에서 디스플레이에 대한 표시 영역을 조정하는 방법을 도시한 흐름도이다.
이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.
일 실시예에 따르면, 전자 장치(예: 안경형 웨어러블 장치, 도 1의 전자 장치(101), HMD(head mounted display) 장치 중 하나인 VST(video see-through) 장치)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여 디스플레이 모듈(예: 도 4의 디스플레이 모듈(160), 제 1 디스플레이(411), 제 2 디스플레이(412))이 배치될 수 있다. 전자 장치(101)는 사용자의 시선 방향과 실질적으로 동일한 방향을 기반으로, 주변 환경을 촬영하는 카메라 모듈(예: 도 4의 카메라 모듈(180))을 포함할 수 있다. 예를 들어, 전자 장치(101)는 카메라 모듈(180)을 사용하여 촬영된 영상을 디스플레이 모듈(160)을 통해 표시할 수 있다. 전자 장치(101)가 머리에 착용된 사용자는 디스플레이 모듈(160)을 통해 표시된 영상을 기반으로, 시선 방향에 대응되는 주변 환경을 확인할 수 있다.
동작 501에서 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 사용자의 머리에 착용된 전자 장치(101)에서 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보(예: 도 3c의 제 1 거리(350))를 확인할 수 있다. 예를 들어, 전자 장치(101)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 디스플레이 조립체(예: 도 3a의 디스플레이 조립체(301))에 배치되는 공정에 있어서, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 틀어짐(vertical misalignment) 현상이 발생할 수 있다. 예를 들어, 틀어짐 현상이 발생하면, 제 1 디스플레이(411)와 제 2 디스플레이(412)에 대한 수평이 맞지 않는 상태이며, 프로세서(120)는 배치 오차 정보(예: 도 3c의 제 1 거리(350))를 기반으로, 틀어짐 정도를 수치로 확인할 수 있다.
일 실시예에 따르면, 디스플레이 조립체(301)에 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치가 완료된 상태에서, 외부 전자 장치(예: 카메라를 포함하는 외부 전자 장치, 카메라 장치)의 카메라를 사용하여 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 이미지를 촬영할 수 있다. 예를 들어, 제 1 디스플레이(411) 및 제 2 디스플레이(412), 각각은 표시 영역(예: 도 3c의 제 1 표시 영역(331), 제 2 표시 영역(332))이 적어도 부분적으로 활성화된 상태에서 외부 전자 장치에 의해 촬영될 수 있다. 전자 장치(101)는 통신 모듈(예: 도 4의 통신 모듈(190))을 통해, 외부 전자 장치에서 촬영된 이미지를 획득할 수 있고, 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보를 확인할 수 있다. 다른 예를 들면, 외부 전자 장치에서, 촬영된 이미지를 기반으로 배치 오차 정보(350)를 확인하고, 확인된 배치 오자 정보(350)를 전자 장치(101)에 제공할 수도 있다. 전자 장치(101)는 획득된 배치 오차 정보(350)를 메모리(예: 도 4의 메모리(180))에 저장할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 외부 전자 장치로부터 제공된 데이터를 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보(350)를 확인할 수 있다.
일 실시예에 따르면, 디스플레이 조립체(301)에는 적어도 두 개 이상의 홀 센서(예: 도 4의 홀 센서(413))가 배치되고, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 적어도 부분적으로 자성체가 결합된 상태일 수 있다. 예를 들어, 제 1 홀 센서는 제 1 디스플레이(411)의 자성체에 대한 제 1 자기장을 감지할 수 있고, 제 2 홀 센서는 제 2 디스플레이(412)의 자성체에 대한 제 2 자기장을 감지할 수 있다. 전자 장치(101)는 디스플레이 조립체(301)에 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치 완료되는 상황에 응답하여, 제 1 홀 센서 및 제 2 홀 센서를 기반으로, 제 1 디스플레이(411)에 대응되는 제 1 자기장 및 제 2 디스플레이(412)에 대응되는 제 2 자기장을 측정할 수 있다. 프로세서(120)는 측정된 제 1 자기장 및 제 2 자기장을 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보를 확인할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 적어도 두 개 이상의 홀 센서(413)를 기반으로 측정된 제 1 자기장 및 제 2 자기장을 확인할 수 있고, 제 1 자기장 및 제 2 자기장을 기반으로 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 배치 오차 정보(350)를 확인할 수도 있다.
동작 503에서 프로세서(120)는 확인된 배치 오차 정보(350)가 설정된 임계값을 초과하는지 여부를 판단할 수 있다. 만약, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 배치 오차가 발생했다면, 프로세서(120)는 발생된 배치 오차가 시각적으로 영향을 주는지 여부를 판단할 수 있다. 예를 들어, 임계값은 배치 오차가 시각적으로 인식되는 기준값을 기반으로 설정될 수 있다.
동작 503에서 배치 오차 정보(350)가 설정된 임계값을 초과하는 경우, 동작 505에서 프로세서(120)는 제 1 디스플레이(411)에 대한 제 1 구동 시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인할 수 있다. 예를 들어, 제 1 디스플레이(411)는 제 1 구동 시점을 기반으로 제 1 화면(예: 적어도 하나의 컨텐츠)이 표시될 수 있고, 제 2 디스플레이(412)는 제 2 구동 시점을 기반으로 제 2 화면이 표시될 수 있다. 프로세서(120)는 제 1 디스플레이(411)에 대한 제 1 구동 시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인한 후, 제 1 화면 및 제 2 화면이 실질적으로 동일한 선(예: 기준 수평선) 상에서 표시되도록, 제 1 구동 시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 일 실시예에 따른 동작 503에서 배치 오차 정보(350)가 설정된 임계값을 초과하지 않는 경우, 프로세서(120)는 제 1 디스플레이(411)와 제 2 디스플레이(412)에 대한 구동 시점을 유지할 수 있다. 예를 들어, 배치 오차 정보(350)가 설정된 임계값을 초과하지 않는 상황은 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 시각적으로 동일한 선(예: 기준 수평선) 상에 표시되는 상황을 포함할 수 있다.
동작 507에서 프로세서(120)는 확인된 배치 오차 정보(350)를 기반으로 제 1 구동 시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 디스플레이 패널을 포함하고, 디스플레이 패널은 적어도 하나의 픽셀을 기반으로 형성된 다수 개의 픽셀 라인들로 구현될 수 있다. 예를 들어, 적어도 하나의 픽셀은 직선을 따라 나란히 배치되는 구조로, 픽셀 라인이 형성될 수 있다. 디스플레이 패널(예: 제 1 디스플레이(411) 및 제 2 디스플레이(412))은 복수 개의 픽셀 라인들(예: 제 1 픽셀 라인, 제 2 픽셀 라인, 제 3 픽셀 라인)이 지정된 간격에 따라, 나란히 배열되는 구조로 설계될 수 있다. 디스플레이 패널은 시각적으로 화면이 나타나는 제 1 영역(예: active 영역), 및 시각적으로 화면이 나타나지 않는 제 2 영역(예: 더미(dummy) 영역)으로 구분될 수 있다. 디스플레이 패널은 전체적으로 복수 개의 픽셀 라인들이 나란히 배열된 구조로 설계될 수 있다. 예를 들어, 디스플레이 패널은 복수 개의 픽셀 라인들이 순차적으로 점등되는 방식으로 화면을 표시할 수 있다. 예를 들어, 제 1 디스플레이(411)는 제 1 표시 영역(331)의 상단 경계 라인에 대응되는 제 1 픽셀 라인부터 제 1 표시 영역(331)의 하단 경계 라인(331-1)에 대응되는 제 N 픽셀 라인까지 순차적으로 점등될 수 있다. 일 실시예에 따르면, 제 1 디스플레이(411)에 대한 제 1 구동 시점은 제 1 표시 영역(331)의 상단 경계 라인에 대응되는 제 1 픽셀 라인에 대한 점등 시점을 포함할 수 있다. 예를 들어, 프로세서(120)는 제 1 디스플레이(411)의 제 1 표시 영역(331)을 기반으로, 제 1 구동 시점에, 제 1 표시 영역(331)에 대한 화면을 표시할 수 있다. 프로세서(120)는 제 2 디스플레이(412)의 제 2 표시 영역(332)을 기반으로, 제 2 구동 시점에, 제 2 표시 영역(332)에 대한 화면을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 1 표시 영역(331)에 대한 제 1 화면과, 제 2 표시 영역(332)에 대한 제 2 화면이 실질적으로 동일한 선(예: 기준 수평선) 상에 표시되도록, 제 1 구동 시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다.
일 실시예에 따르면, 디스플레이 패널은 시각적으로 적어도 하나의 컨텐츠가 표시되는 제 1 영역(예: 표시 영역, active 영역), 및 시각적으로 컨텐츠가 표시되지 않는 제 2 영역(예: 더미 영역)을 포함할 수 있다. 예를 들어, 제 2 영역은 제 1 영역의 상단 경계 라인을 따라 연장되는 제 1 더미 영역(예: upper dummy) 및 제 1 영역의 하단 경계 라인을 따라 연장되는 제 2 더미 영역(예: lower dummy)을 포함할 수 있다. 예를 들어, 제 1 더미 영역 및 제 2 더미 영역은 복수 개의 픽셀 라인들을 포함할 수 있고, 디스플레이 패널의 설정에 기반하여 복수 개의 픽셀 라인들이 점등될 수 있다. 제 1 더미 영역 및 제 2 더미 영역은 적어도 부분적으로 화면을 출력하기 위한 표시 영역으로 활용될 수 있다. 예를 들어, 제 1 표시 영역(331)에 대한 제 1 표시 시점이 앞으로 당겨지면, 제 1 표시 영역(331)은 제 1 더미 영역(upper dummy)의 일부분을 포함하는 것으로 조정될 수 있다. 제 1 표시 영역(331)이 시각적으로 제 1 디스플레이(411)의 상단으로 이동한 것으로 보여질 수 있다. 다른 예를 들어, 제 1 표시 영역(331)에 대한 제 1 표시 시점이 뒤로 미뤄지면, 제 1 표시 영역(331)은 제 2 더미 영역(lower dummy)의 일부분을 포함하는 것으로 조정될 수 있다. 제 1 표시 영역(331)이 시각적으로 제 1 디스플레이(411)의 하단으로 이동한 것으로 보여질 수 있다.
동작 509에서 프로세서(120)는 조정된 구동 시점을 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시할 수 있다. 예를 들어, 프로세서(120)는 제 1 디스플레이(411)의 제 1 표시 영역(331)을 기반으로, 제 1 구동 시점에 적어도 하나의 컨텐츠(예: 제 1 화면)를 표시할 수 있다. 프로세서(120)는 제 2 디스플레이(412)의 제 2 표시 영역(332)을 기반으로, 제 2 구동 시점에 적어도 하나의 컨텐츠(예: 제 2 화면)를 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 표시 영역에 대한 구동 시점을 조정함으로써, 제 1 디스플레이(411)의 제 1 표시 영역(331)과 제 2 디스플레이(412)의 제 2 표시 영역(332)이 실질적으로 동일한 선(예: 기준 수평선) 상에 위치한 것처럼 표시할 수 있다.
일 실시예에 따르면, 사용자는 제 1 화면 및 제 2 화면이 시각적으로 동일한 수평선을 기준으로 표시된 것처럼 인식될 수 있고, 전자 장치(101)의 사용에 따른 피로감 및 불편함이 줄어들 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차 정보(예: 틀어짐 현상)를 확인할 수 있고, 확인된 배치 오차 정보가 설정된 임계값을 초과하는 경우, 제 1 디스플레이(411)에 대한 제 1 구동 시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인할 수 있다. 프로세서(120)는 확인된 배치 오차 정보를 기반으로 제 1 구동 시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 예를 들어, 제 1 구동 시점이 조정되는 것은 제 1 디스플레이(411)의 제 1 표시 영역(331)의 표시 위치가 변경되는 것을 의미할 수 있다. 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412), 각각에 포함된 더미 영역(예: 디스플레이 패널의 더미 영역)을 활용하여, 표시 영역의 위치를 조정할 수 있다. 프로세서(120)는 제 1 디스플레이(411)의 제 1 표시 영역을 통해 표시되는 제 1 화면과 제 2 디스플레이(412)의 제 2 표시 영역을 통해 표시되는 제 2 화면이 시각적으로 동일한 선(예: 기준 수평선)을 기준으로 표시되도록, 제 1 구동 시점 및 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정할 수 있다. 프로세서(120)는 조정된 구동 시점을 기반으로, 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시할 수 있다.
도 6은 본 개시의 일 실시예에 따른 디스플레이 패널의 물리적인 형태 및 디스플레이 패널의 표시 영역을 도시한 예시도이다.
도 6을 참조하면, 디스플레이 모듈(예: 도 4의 디스플레이 모듈(160))에 포함된 제 1 디스플레이(예: 도 4의 제 1 디스플레이(411)) 및 제 2 디스플레이(예: 도 4의 제 2 디스플레이(412))에 대한 물리적인 형태(622)를 도시한다. 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 실질적으로 동일한 형태로 설계될 수 있다. 이하의 설명에서 제 1 디스플레이(411)에 기반하여 서술하였으나, 제 1 디스플레이(411)에 대한 설명으로 한정되지 않으며, 제 2 디스플레이(412)에 대한 설명을 포함할 수 있다.
도 6을 참조하면, 제 1 디스플레이(411)는 디스플레이 패널(display panel)(622)을 포함할 수 있고, 디스플레이 패널(622)을 기반으로, 적어도 일부 영역을 표시 영역(621)(예: 도 3c의 제 1 표시 영역(331), 도 3c의 제 2 표시 영역(332))으로 설정할 수 있다. 예를 들어, 전자 장치(예: 도 4의 전자 장치(101))의 프로세서(예: 도 4의 프로세서(120))는 제 1 디스플레이(411)의 표시 영역(621)을 통해, 화면을 표시할 수 있다. 일 실시예에 따르면, 디스플레이 패널(622)은 화면이 표시되는 제 1 영역(예: 표시 영역(621), active 영역) 및 화면이 표시되지 않는 제 2 영역(예: 미표시 영역)으로 구분될 수 있다. 예를 들어, 제 2 영역은 제 1 더미 영역(602)(예: upper dummy) 및 제 2 더미 영역(603)(예: lower dummy)을 포함할 수 있다. 도 6을 참조하면, 제 1 더미 영역(602)은 표시 영역(621)의 상단 경계 라인(631)으로부터 지정된 거리만큼 연장된 영역을 포함할 수 있고, 제 2 더미 영역(603)은 표시 영역(621)의 하단 경계 라인(632)으로부터 지정된 거리만큼 연장된 영역을 포함할 수 있다. 일 실시예에 따르면, 제 1 더미 영역(602) 및 제 2 더미 영역(603)은 표시 영역(621)의 상단 또는 하단 방향으로 연장된 영역을 포함하나, 이에 한정되지는 않는다. 일 실시예에 따르면, 제 1 더미 영역(602) 및 제 2 더미 영역(603)은 표시 영역(621)의 좌측 또는 우측 방향으로 연장된 영역으로 설정될 수도 있다.
일 실시예에 따르면, 디스플레이 패널(622)은 복수 개의 픽셀들을 기반으로, 적어도 하나의 픽셀 라인이 형성되고, 복수 개의 픽셀 라인들(예: 제 1 픽셀 라인, 제 2 픽셀 라인, 제 3 픽셀 라인)이 지정된 간격에 따라, 나란히 배열되는 구조로 설계될 수 있다. 예를 들어, 디스플레이 패널(622)은 복수 개의 픽셀 라인들이 순차적으로 켜 나가는 방식으로 화면을 출력할 수 있다. 제 1 더미 영역(602) 및 제 2 더미 영역(603)은 복수 개의 픽셀 라인들을 포함할 수 있고, 디스플레이 패널의 설정에 기반하여 복수 개의 픽셀 라인들이 점등될 수 있다. 제 1 더미 영역(602) 및 제 2 더미 영역(603)은 적어도 부분적으로 화면을 출력하기 위한 표시 영역으로 활용될 수도 있다. 일 실시예에 따르면, 제 1 더미 영역(602) 및 제 2 더미 영역(603)에 대한 면적의 합은 일정하게 유지될 수 있다. 예를 들어, 제 1 더미 영역(602)의 일부 영역이 표시 영역(621)(예: active 영역)으로 활용되면, 제 1 더미 영역(602)은 상대적으로 이전보다 상기 일부 영역만큼 면적이 축소되지만, 제 2 더미 영역(603)은 상대적으로 상기 일부 영역만큼 면적이 확대될 수 있다. 일 실시예에 따르면, 표시 영역(621)의 가로 길이(611)(예: horizontal active(hactive)) 및 세로 길이(601)(예: vertical active(vactive))는 실질적으로 일정하게 유지될 수 있다. 예를 들면, 표시 영역(621)은 가로 길이(611)(hactive) 및 세로 길이(601)(vactive)를 기반으로 크기가 결정될 수 있다.
일 실시예에 따르면, 디스플레이 패널(622)은 세로 방향(예: z축 방향)을 기준으로, Vsync(vertical sync) 구간(606), VBP(vertical back porch) 구간(604), VA(vertical active) 구간(601), 및 VFP(vertical front porch) 구간(605)으로 구분될 수 있다. 예를 들어, Vsync 구간(606), VBP 구간(604), VA 구간(601), 및/또는 VFP 구간(605)은 세로 방향을 기준으로, 디스플레이 패널(622)에 포함된 복수 개의 픽셀 라인들이 점등되는 구동 타이밍을 나타낼 수 있다. 예를 들어, 프로세서(120)는 시간 순서 상, Vsync 구간(606), VBP 구간(604), VA 구간(601), 및/또는 VFP 구간(605)을 따라, 디스플레이 패널(622)을 구동할 수 있다. VBP 구간(604)은 제 1 더미 영역(602)을 포함할 수 있고, VFP 구간(605)은 제 2 더미 영역(603)을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 VA 구간(601)(예: 표시 영역)에서 적어도 하나의 픽셀 라인을 점등시킬 수 있고, 화면을 표시할 수 있다.
일 실시예에 따르면, 디스플레이 패널(622)은 가로 방향(예: x축 방향)을 기준으로, Hsync(horizontal sync) 구간(614), HBP(horizontal back porch) 구간(612), HA(horizontal active) 구간(611), 및 HFP(horizontal front porch) 구간(613)으로 구분될 수 있다. 예를 들어, Hsync 구간(614), HBP 구간(612), HA 구간(611), 및/또는 HFP 구간(613)은 가로 방향을 기준으로, 디스플레이 패널(622)에 포함된 복수 개의 픽셀 라인들이 점등되는 구동 타이밍을 나타낼 수 있다. 예를 들어, 프로세서(120)는 시간 순서 상, Hsync 구간(614), HBP 구간(612), HA 구간(611), 및/또는 HFP 구간(613)을 따라, 디스플레이 패널(622)을 구동할 수 있다. 일 실시예에 따르면, 프로세서(120)는 HA 구간(611)(예: 표시 영역)에서 적어도 하나의 픽셀 라인을 점등시킬 수 있고, 화면을 표시할 수 있다.
일 실시예에 따르면, 프로세서(120)는 세로 방향(예: z축 방향)을 기준으로, Vsync 구간(606), VBP 구간(604), VA 구간(601), 및/또는 VFP 구간(605), 순서에 따라, 화면(예: VA 구간(601))을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 VA 구간(601)이 시작하는 시작 시점 및 VA 구간(601)이 종료되는 종료 시점을 조정할 수 있다. 예를 들어, VA 구간(601)의 시작 시점이 앞당겨지면, VBP 구간(604)이 축소되면서, VA 구간(601)에 대한 구동 타이밍이 빨라질 수 있다. VA 구간(601)의 시작 시점이 앞당겨지면, 상대적으로 VFP 구간(605)이 확대될 수 있다. VA 구간(601)의 면적은 실질적으로 동일하게 유지되므로, VBP 구간(604)이 축소된 면적만큼 VFP 구간(605)이 확대될 수 있다. 일 실시예에 따르면, VA 구간(601)(예: 표시 영역)은 시각적으로 디스플레이 패널(622)의 상단 방향(예: z 방향)을 따라, 이동한 것으로 나타날 수 있다. 다른 예를 들어, VA 구간(601)의 시작 시점이 뒤로 늦춰지면, VBP 구간(604)이 확대되면서, VA 구간(601)에 대한 구동 타이밍이 늦어질 수 있다. VA 구간(601)의 시작 시점이 뒤로 늦춰지면, 상대적으로 VFP 구간(605)이 축소될 수 있다. VA 구간(601)의 면적은 실질적으로 동일하게 유지되므로, VBP 구간(604)이 확대된 면적만큼 VFP 구간(605)이 축소될 수 있다. 일 실시예에 따르면, VA 구간(601)(예: 표시 영역)은 시각적으로 디스플레이 패널(622)의 하단 방향(예: -z 방향)을 따라, 이동한 것으로 나타날 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 표시 영역(621)에 대응되는 VA 구간(601)에 대한 시작 시점 및 종료 시점을 조정할 수 있고, 시각적으로 표시 영역(621)이 디스플레이 패널(622)의 상단 방향(예: z 방향) 또는 하단 방향(예: -z 방향)으로 이동한 것처럼, 표시 영역(621)을 표시할 수 있다.
도 7a는 본 개시의 일 실시예에 따른 제 1 디스플레이 및 제 2 디스플레이, 각각에 대응되는 구동 타이밍을 도시한 제 1 그래프이다.
도 7b는 본 개시의 일 실시예에 따른 제 1 디스플레이 및 제 2 디스플레이, 각각에 대응하여, 표시 영역에 대한 시작 시점이 일치하도록, 조정된 구동 타이밍을 도시한 제 2 그래프이다.
일 실시예에 따르면, 전자 장치(예: 안경형 웨어러블 장치, 도 1의 전자 장치(101), HMD(head mounted display) 장치 중 하나인 VST(video see-through) 장치)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여 디스플레이 모듈(예: 도 4의 디스플레이 모듈(160), 제 1 디스플레이(411), 제 2 디스플레이(412))이 배치될 수 있다. 전자 장치(101)는 사용자의 시선 방향과 실질적으로 동일한 방향을 기반으로, 주변 환경을 촬영하는 카메라 모듈(예: 도 4의 카메라 모듈(180))을 포함할 수 있다. 예를 들어, 전자 장치(101)의 프로세서(예: 도 4의 프로세서(120))는 카메라 모듈(180)을 사용하여 촬영된 영상(예: 이미지)을 디스플레이 모듈(160)을 통해 표시할 수 있다.
도 7a를 참조하면, 전자 장치(101)의 프로세서(120)는 제 1 구동 타이밍(710)을 기반으로, 제 1 디스플레이(411)를 구동할 수 있고, 제 2 구동 타이밍(720)을 기반으로, 제 2 디스플레이(412)를 구동할 수 있다. 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 전자 장치(101)에 배치되는 공정에서, 틀어짐 현상(예: 배치 오차(731)가 발생)이 발생한 상태일 수 있다. 도 7a를 참조하면, 제 1 디스플레이(411)는 제 1 VA 구간(713)에서 제 1 표시 영역(예: 도 3c의 제 1 표시 영역(331))을 통해, 화면이 표시될 수 있고, 제 2 디스플레이(412)는 제 2 VA 구간(723)에서 제 2 표시 영역(예: 도 3c의 제 2 표시 영역(332))을 통해, 화면이 표시될 수 있다. 제 1 표시 영역(331)에 따른 제 1 화면 및 제 2 표시 영역(332)에 따른 제 2 화면은 배치 오차(731)에 따른 물리적인 틀어짐으로 인해, 동일한 선(예: 기준 수평선)을 기준으로 표시되지 않을 수 있다. 제 1 화면 및 제 2 화면에 대한 수평이 맞지 않을 수 있다. 예를 들어, 제 1 화면이 제 2 화면 보다 상대적으로 높은 위치에서 표시될 수 있다.
일 실시예에 따르면, 제 1 Vsync 구간(711)은 제 1 디스플레이(411)에서 제 1 화면을 표시하기 위한 제 1 시작 구간을 포함할 수 있다. 예를 들어, 프로세서(120)는 제 1 Vsync 구간(711)을 시작으로 제 1 화면을 표시할 수 있다. 제 2 Vsync 구간(721)은 제 2 디스플레이(412)에서 제 2 화면을 표시하기 위한 제 2 시작 구간을 포함할 수 있다. 예를 들어, 프로세서(120)는 제 2 Vsync 구간(721)을 시작으로 제 2 화면을 표시할 수 있다.
일 실시예에 따르면, 제 1 VBP 구간(712), 및 제 2 VBP 구간(722)은 제 1 더미 영역(예: upper dummy)에 대한 구동 구간을 포함할 수 있고, 제 1 VFP 구간(714), 및 제 2 VFP 구간(724)은 제 2 더미 영역(예: lower dummy)의 구동 구간을 포함할 수 있다. 예를 들어, 제 1 디스플레이(411)는 제 1 VBP 구간(712)을 기반으로 제 1 더미 영역이 구현될 수 있고, 제 1 VFP 구간(714)을 기반으로 제 2 더미 영역이 구현될 수 있다. 제 2 디스플레이(412)는 제 2 VBP 구간(722)을 기반으로 제 1 더미 영역이 구현될 수 있고, 제 2 VFP 구간(724)을 기반으로 제 2 더미 영역이 구현될 수 있다.
일 실시예에 따르면, 도 7a의 제 1 디스플레이(411)는 제 1 VA 구간(713)(예: 제 1 표시 영역(301)에 대한 구동 구간)의 구동 타이밍을 앞으로 당기거나, 또는, 뒤로 미룰 수 있다. 예를 들어, 프로세서(120)는 제 1 디스플레이(411)를 기준으로, 제 1 VBP 구간(712)을 기반으로 제 1 VA 구간(713)의 구동 타이밍이 빨라지도록 앞으로 당길 수 있다. 다른 예를 들어, 프로세서(120)는 제 1 디스플레이(411)를 기준으로, 제 1 VFP 구간(714)을 기반으로 제 1 VA 구간(713)의 구동 타이밍이 늦어지도록 뒤로 미룰 수 있다. 일 실시예에 따르면, 제 1 VA 구간(713) 및 제 2 VA 구간(723)은 실질적으로 동일한 크기의 구동 타이밍을 유지할 수 있다.
일 실시예에 따르면, 프로세서(120)는 제 1 Vsync 구간(711)을 제 1 시작 구간으로, 제 1 디스플레이(411)에 대한 제 1 화면을 표시할 수 있고, 제 2 Vsync 구간(721)을 제 2 시작 구간으로, 제 2 디스플레이(412)에 대한 제 2 화면을 표시할 수 있다. 도 7a를 참조하면, 제 1 Vsync 구간(711) 및 제 2 Vsync 구간(721) 사이에 배치 오차(731)가 발생할 수 있고, 제 1 화면 및 제 2 화면이 배치 오차(731)만큼 이격되어 표시될 수 있다. 예를 들어, 제 1 화면이 제 2 화면 보다 상대적으로 높은 위치에서 표시될 수 있다.
도 7b를 참조하면, 전자 장치(101)의 프로세서(120)는 제 1 구동 타이밍(710)을 기반으로, 제 1 디스플레이(411)를 구동할 수 있고, 제 2-1 구동 타이밍(720-1)을 기반으로, 제 2 디스플레이(412)를 구동할 수 있다. 예를 들어, 제 2-1 구동 타이밍(720-1)은 도 7a의 제 2 구동 타이밍(720)과 비교하여, 상대적으로 제 2 디스플레이(412)의 제 2 VA 구간(723)에 대한 시작 시점이 빨라지도록 조정된 구동 타이밍일 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 2 디스플레이(421)에 대한 제 2 VA 구간(723)의 시작 시점이 빨라지도록 조정함으로써, 제 1 디스플레이(411)에 대한 제 1 화면 및 제 2 디스플레이(412)에 대한 제 2 화면을 동일한 선(예: 기준 수평선) 상에 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 도 7a에서의 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간의 배치 오차(731)만큼 제 2 VA 구간(723)의 시작 시점이 빨라지도록 조정할 수 있다.
일 실시예에 따르면, 도 7b에서 프로세서(120)는 제 2 디스플레이(412)에 대한 제 2 VA 구간(723)의 시작 시점을 VBP-1 구간(722-1)의 일부 시간(예: 배치 오차(731)에 대응되는 시간)만큼 앞으로 당길 수 있다. 예를 들어, VBP-1 구간(722-1)은 도 7a의 VBP 구간(722) 보다 상대적으로 줄어들 수 있다. 제 2 VA 구간(723)의 시작 시점이 일부 시간만큼 빠르게 당겨짐으로써, VFP-1 구간(724-1)은 일부 시간만큼 증가할 수 있다.
일 실시예에 따르면, 제 2 VA 구간(723)(예: 제 2 디스플레이(412)의 제 2 표시 영역(332)에 대한 구동 구간)의 시작 시점이 이동하더라도, 실질적으로 제 2 VA 구간(723)의 시간 간격은 동일하게 유지될 수 있다. 일 실시예에 따르면, VBP 구간(712) 및 VFP 구간(714)의 합은 VBP-1 구간(722-1) 및 VFP-1 구간(724-1)의 합과 실질적으로 동일할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 2 디스플레이(412)의 제 2 VA 구간(723)의 시작 시점을 조정할 수 있고, 제 1 표시 영역(331)에 따른 제 1 화면과 제 2 표시 영역(332)에 따른 제 2 화면이 동일한 선(예: 기준 수평선) 상에 표시되도록, 디스플레이 모듈(160)을 제어할 수 있다.
도 8a는 본 개시의 일 실시예에 따른 도 7a의 제 1 그래프를 기반으로 시각적으로 표시되는 화면을 도시한 예시도이다.
일 실시예에 따르면, 전자 장치(예: 안경형 웨어러블 장치, 도 1의 전자 장치(101), HMD(head mounted display) 장치 중 하나인 VST(video see-through) 장치)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여 디스플레이 모듈(예: 도 4의 디스플레이 모듈(160), 사용자의 좌안에 대응되는 제 1 디스플레이(411), 사용자의 우안에 대응되는 제 2 디스플레이(412))이 배치될 수 있다. 전자 장치(101)는 사용자의 시선 방향과 실질적으로 동일한 방향을 기반으로, 주변 환경을 촬영하는 카메라 모듈(예: 도 4의 카메라 모듈(180))을 포함할 수 있다. 예를 들어, 전자 장치(101)의 프로세서(예: 도 4의 프로세서(120))는 카메라 모듈(180)을 사용하여 촬영된 영상(예: 이미지)을 디스플레이 모듈(160)을 통해 표시할 수 있다.
도 8a를 참조하면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 전자 장치(101)에 배치되는 공정에서, 틀어짐 현상(예: 배치 오차(350)가 발생)이 발생한 상태일 수 있다. 도 8a를 참조하면, 제 1 디스플레이(411)는 제 1 표시 영역(331), 제 1-1 더미 영역(811)(예: upper dummy), 및 제 1-2 더미 영역(812)(예: lower dummy)을 포함할 수 있다. 예를 들어, 제 1 디스플레이(411)의 제 1 표시 영역(331)은 제 1 디스플레이(411)에서 시각적으로 화면이 표시되는 영역을 포함할 수 있다. 제 2 디스플레이(412)는 제 2 표시 영역(332), 제 2-1 더미 영역(821)(예: upper dummy), 및 제 2-2 더미 영역(822)(예: lower dummy)을 포함할 수 있다. 예를 들어, 제 2 디스플레이(412)의 제 2 표시 영역(332)은 제 2 디스플레이(412)에서 시각적으로 화면이 표시되는 영역을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제 1 구동 시점을 기반으로 제 1 표시 영역(331)을 통한 제 1 화면을 표시할 수 있고, 제 2 구동 시점을 기반으로 제 2 표시 영역(332)을 통한 제 2 화면을 표시할 수 있다. 예를 들어, 제 1 표시 영역(331)의 제 1 하단 경계 라인(예: 도 3c의 제 1 하단 경계 라인(331-1))은 제 1 구동 시점을 기반으로 결정될 수 있고, 제 2 표시 영역(332)의 제 2 하단 경계 라인(예: 도 3c의 제 2 하단 경계 라인(332-1))은 제 2 구동 시점을 기반으로 결정될 수 있다.
도 8a를 참조하면, 제 1 표시 영역(331) 및 제 2 표시 영역(332)은 제 1 거리(예: 도 3c의 제 1 거리(350), 배치 오차 정보)만큼 배치 오차가 발생한 상태일 수 있다. 예를 들어, 제 1 표시 영역(331)은 상대적으로 제 2 표시 영역(332)보다 높은 위치에서 표시될 수 있다. 제 1 표시 영역(331)의 위치가 상대적으로 제 2 표시 영역(332)의 위치보다 높을 수 있다. 전자 장치(101)가 사용자의 머리에 착용된 상태에서, 제 1 디스플레이(411)를 통한 제 1 화면(예: 좌안에 대응되는 화면)은 제 2 디스플레이(412)를 통한 제 2 화면(예: 우안에 대응되는 화면)보다 상대적으로 높은 위치에서 표시될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제 1 하단 경계 라인(331-1)을 기반으로, 제 1 표시 영역(331)에 따른 제 1 화면을 표시할 수 있다. 전자 장치(101)는 제 2 하단 경계 라인(332-1)을 기반으로, 제 2 표시 영역(332)에 따른 제 2 화면을 표시할 수 있다. 제 1 화면 및 제 2 화면은 서로 다른 선(예: 기준 수평선)을 기준으로 표시될 수 있다.
도 8b는 본 개시의 일 실시예에 따른 도 7b의 제 2 그래프를 기반으로 시각적으로 표시되는 화면을 도시한 예시도이다.
도 8b를 참조하면, 제 1 디스플레이(411)의 제 1 표시 영역(331)과 및 제 2 디스플레이(412)의 제 2 표시 영역(332)은 실질적으로 동일한 선(예: 기준 수평선(830))을 기준으로 표시될 수 있다. 예를 들어, 전자 장치(101)의 프로세서(120)는 도 8a를 기준으로, 제 2 디스플레이(412)의 제 2 표시 영역(332)이 상단으로 이동하여 표시되도록, 제 2 디스플레이(412)에 대한 구동 타이밍을 조정할 수 있다. 도 7b를 참조하면, 프로세서(120)는 제 2 표시 영역(332)(예: 도 7b의 제 2 VA 구간(723))에 대한 시작 시점이 빨라지도록 조정할 수 있다. 예를 들어, 프로세서(120)는 제 2 VA 구간(723)의 시작 시점이, 제 1 VA 구간(예: 도 7b의 제 1 VA 구간(713))의 시작 시점과 실질적으로 일치하도록 조정할 수 있다. 프로세서(120)는 제 2 VA 구간(723)의 시작 시점이 빨라진 만큼 제 2 표시 영역(332)에 따른 제 2 화면이 빠르게 표시될 수 있고, 제 1 표시 영역(331)에 따른 제 1 화면과 실질적으로 동일한 선(예: 기준 수평선(830))을 기준으로 표시될 수 있다. 예를 들어, 프로세서(120)는 제 1 표시 영역(331)의 제 1 하단 경계 라인(331-1)을 기반으로, 기준 수평선(830)을 결정할 수 있고, 기준 수평선(830)에 맞춰서, 제 1 화면 및 제 2 화면이 표시되도록, 제 1 디스플레이(411) 및 제 2 디스플레이(412)를 제어할 수 있다. 제 1 화면 및 제 2 화면은 기준 수평선(830)(예: 제 1 표시 영역(331)의 제 1 하단 경계 라인(331-1))을 기반으로, 실질적으로 동일한 선 상에 위치하도록 표시될 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나에 대한 구동 타이밍을 조정할 수 있다. 프로세서(120)는 제 1 표시 영역(331) 및 제 2 표시 영역(332)이 동일한 기준 수평선(830)을 기준으로 배치되도록, 구동 타이밍을 조정할 수 있다. 도 8a 및 도 8b를 참조하면, 제 2 표시 영역(332)은 제 1 거리(350)만큼 제 2-1 더미 영역(821)을 점유하는 상태로 이동될 수 있다.
도 8b를 참조하면, 도 8a의 제 2-1 더미 영역(821)의 세로 길이는 제 1 거리(350)만큼 축소되고, 제 2-1 더미 영역(821)의 표시 위치는 제 2-1’ 더미 영역(821-1)의 표시 위치로 조정될 수 있다. 도 8a의 제 2-2 더미 영역(822)의 세로 길이는 제 1 거리(350)만큼 확장될 수 있고, 제 2-2 더미 영역(822)은 제 2-2’ 더미 영역(822-1)으로 조정될 수 있다. 제 2-1 더미 영역(821)은 도 8a와 비교하여, 상대적으로 제 1 거리(350)만큼 면적이 축소될 수 있고, 제 2-2 더미 영역(822)은 도 8a와 비교하여, 상대적으로 제 1 거리(350)만큼 면적이 확대될 수 있다.
일 실시예에 따르면, 제 1 표시 영역(331) 및 제 2 표시 영역(332) 중 적어도 하나의 표시 위치가 이동하는 상황에서도, 제 1 표시 영역(331)의 면적 및 제 2 표시 영역(332)의 면적은 실질적으로 동일하게 유지될 수 있다. 도 8a의 제 2-1 더미 영역(821)과 제 2-2 더미 영역(822)의 면적 합은, 도 8b의 제 2-1’ 더미 영역(821-1)과 제 2-2’ 더미 영역(822-1)의 면적 합과 실질적으로 동일할 수 있다. 일 실시예에 따르면, 제 2 표시 영역(332)은 제 2-1 더미 영역(821) 및 제 2-2 더미 영역(822)을 기반으로, 표시 위치가 조정될 수 있다.
도 9a는 본 개시의 일 실시예에 따른 홀 센서를 사용하여 배치 오차를 확인할 때, 홀 센서의 배치 구조를 도시한 도면이다.
도 9b는 본 개시의 일 실시예에 따른 적어도 하나의 홀 센서를 사용하여, 제 1 디스플레이 및 제 2 디스플레이에 대한 배치 오차를 확인하는 상황을 도시한 도면이다.
일 실시예에 따르면, 전자 장치(예: 안경형 웨어러블 장치, 도 1의 전자 장치(101), HMD(head mounted display) 장치 중 하나인 VST(video see-through) 장치)는 사용자의 머리에 착용될 수 있고, 사용자의 눈 위치에 대응하여 디스플레이 모듈(예: 도 4의 디스플레이 모듈(160), 제 1 디스플레이(411), 제 2 디스플레이(412))이 배치될 수 있다. 전자 장치(101)는 사용자의 시선 방향과 실질적으로 동일한 방향을 기반으로, 주변 환경을 촬영하는 카메라 모듈(예: 도 4의 카메라 모듈(180))을 포함할 수 있다. 예를 들어, 전자 장치(101)의 프로세서(예: 도 4의 프로세서(120))는 카메라 모듈(180)을 사용하여 촬영된 영상(예: 이미지)을 디스플레이 모듈(160)을 통해 표시할 수 있다.
일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 전자 장치(101)에 배치되는 공정에서, 틀어짐 현상(예: 배치 오차가 발생)이 발생할 수 있다. 전자 장치(101)는 내부에 홀 센서(예: hall IC) 및 자성체(예: 자석(magnet))를 배치할 수 있고, 배치된 홀 센서 및 자성체를 기반으로 틀어짐 현상을 검출할 수 있다. 다양한 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 대한 틀어짐 현상은 다양한 종류의 센서를 사용하여 검출할 수 있다. 홀 센서 및 자성체에 한정되지 않는다.
도 9a를 참조하면, 디스플레이 모듈(160)에 포함된 제 1 디스플레이(411)는 배면에 부분적으로 제 1 자성체(901)(예: 자석, 자력 부재) 및 필름 부재(920)(예: 그래파이트 시트(graphite sheet))가 배치되는 형태로 구현될 수 있다. 전자 장치(101)는 내부에 배치된 제 1 홀 센서(911)를 사용하여, 제 1 디스플레이(411)의 제 1 자성체(901)에 기반한 제 1 자기장을 측정할 수 있고, 제 1 자성체(901)의 위치를 확인할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 제 1 디스플레이(411), 제 1 자성체(901) 및 필름 부재(920)를 포함할 수 있다. 일 실시예에 따르면, 제 1 홀 센서(911)는 제 1 자성체(901)와 설정된 거리만큼 떨어진 상태로, 전자 장치(101)를 구성하는 하우징에 적어도 부분적으로 배치될 수 있다.
도 9a를 참조하면, 제 1 디스플레이(411)에 한정되지 않으며, 제 2 디스플레이(412)도 도 9a와 실질적으로 동일한 구조로 구현될 수 있다. 전자 장치(101)가 사용자의 머리에 착용된 상태에서, 사용자는 좌안에 대응되는 제 1 디스플레이(411)를 기반으로 제 1 화면을 확인할 수 있고, 우안에 대응되는 제 2 디스플레이(412)를 기반으로 제 2 화면을 확인할 수 있다.
도 9b를 참조하면, 제 1 디스플레이(411)는 제 1 자성체(901)가 디스플레이 패널의 일 영역(예: 배면)에 부분적으로 부착될 수 있다. 제 2 디스플레이(412)는 제 2 자성체(902)가 디스플레이 패널의 일 영역(예: 배면)에 부분적으로 부착될 수 있다. 제 1 자성체(901) 및 제 2 자성체(902)는 디스플레이 패널에 대해, 실질적으로 동일한 위치에 부착될 수 있다. 전자 장치(101)는 제 1 자성체(901)에 기반하여 생성된 제 1 자기장을 측정하기 위한 제 1 홀 센서(911) 및 제 2 자성체(902)에 기반하여 생성된 제 2 자기장을 측정하기 위한 제 2 홀 센서(912)를 포함할 수 있다. 일 실시예에 따르면, 제 1 홀 센서(911) 및 제 2 홀 센서(912)는 전자 장치(101)를 구성하는 하우징에 적어도 부분적으로 배치될 수 있다.
일 실시예에 따르면, 전자 장치(101)의 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치된 상태에서, 제 1 홀 센서(911)를 사용하여 제 1 자성체(901)에 기반한 제 1 자기장을 측정할 수 있다. 프로세서(120)는 측정된 제 1 자기장을 기반으로, 제 1 홀 센서(911)와 제 1 자성체(901) 간의 제 1 거리(931)를 확인할 수 있다. 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)가 배치된 상태에서, 제 2 홀 센서(912)를 사용하여 제 2 자성체(902)에 기반한 제 2 자기장을 측정할 수 있다. 프로세서(120)는 측정된 제 2 자기장을 기반으로, 제 2 홀 센서(912)와 제 2 자성체(902) 간의 제 2 거리(932)를 확인할 수 있다. 프로세서(120)는 제 1 거리(931) 및 제 2 거리(932) 간의 차이값을 확인할 수 있고, 차이값만큼 제 1 디스플레이(411) 및 제 2 디스플레이(412) 간에 배치 오차(941)가 발생하였음을 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 측정된 제 1 자기장 및 제 2 자기장을 기반으로 배치 오차(941) 값을 확인할 수 있고, 확인된 배치 오차 값을 보정하도록 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 적어도 하나에 대한 구동 타이밍을 조정할 수 있다. 구동 타이밍을 조정함으로써, 프로세서(120)는 제 1 디스플레이(411) 및 제 2 디스플레이(412)에 포함된 더미 영역(예: upper dummy, lower dummy)을 활용하여, 표시 영역을 이동시킬 수 있다. 프로세서(120)는 제 1 디스플레이(411)에 대한 제 1 표시 영역(331) 및 제 2 디스플레이(412)에 대한 제 2 표시 영역(332)이 실질적으로 동일한 선(예: 기준 수평선) 상에서 표시되도록, 배치 오차 값을 보정할 수 있다.
다양한 실시예에 따른 사용자의 머리에 착용되는 전자 장치(101)에서 디스플레이에 대한 구동 시점을 조정하는 방법에 있어서, 좌안에 대응하여 배치된 제 1 디스플레이(411) 및 우안에 대응하여 배치된 제 2 디스플레이(412) 간의 배치 오차 정보(350)를 확인하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 상기 확인된 배치 오차 정보(350)가 설정된 임계값을 초과하는 경우, 상기 제 1 디스플레이(411)에 대한 제 1 구동시점 및 상기 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 상기 확인된 배치 오차 정보(350)를 기반으로, 상기 제 1 구동시점 및 상기 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정하는 동작을 포함할 수 있다. 일 실시예에 따른 방법은 상기 조정된 구동 시점을 기반으로, 상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 적어도 하나의 컨텐츠가 표시되기 위한 제 1 영역(621) 및 적어도 하나의 컨텐츠가 표시되지 않는 제 2 영역(622)을 포함할 수 있다. 제 2 영역(622)은 상기 제 1 영역(621)의 일단 경계 라인으로부터 연장된 제 1 더미 영역(602), 및 상기 제 1 영역(621)의 타단 경계 라인으로부터 연장된 제 2 더미 영역(603)을 포함할 수 있다.
일 실시예에 따른 적어도 하나의 컨텐츠를 표시하는 동작은, 제 1 영역(621)의 표시 위치가 조정된 구동 시점을 기반으로, 제 1 더미 영역(602) 및 제 2 더미 영역(603) 중 하나를 적어도 부분적으로 포함하는 형태로 이동되는 동작을 포함할 수 있다.
일 실시예에 따른 방법은 제 1 영역(621)이 이동하는 상황에서, 제 1 영역(621)의 면적은 일정하게 유지될 수 있다. 일 실시예에 따른 방법은 제 1 더미 영역(602)과 제 2 더미 영역(603)에 대한 면적의 합은 일정하게 유지될 수 있다.
일 실시예에 따르면, 제 1 디스플레이(411) 및 제 2 디스플레이(412)는 복수 개의 픽셀 라인들이 설정된 간격에 따라 나란히 배열되는 형태로 구현될 수 있다. 일 실시예에 따른 적어도 하나의 컨텐츠를 표시하는 동작은, 조정된 구동 시점을 기반으로 복수 개의 픽셀 라인들을 일 방향을 따라 순차적으로 점등하여, 적어도 하나의 컨텐츠를 표시하는 동작을 포함할 수 있다.
일 실시예에 따른 적어도 하나의 구동 시점을 조정하는 동작은, 제 1 디스플레이(411) 및 제 2 디스플레이(412) 중 하나에 대응되는, 제 1 영역(621)에 대한 구동 시작 시점을 확인하는 동작, 및 상기 획득된 배치 오차 정보(350)를 기반으로 상기 제 1 영역(621)에 대한 구동 시작 시점을 조정하는 동작을 포함할 수 있다.
일 실시예에 따른 배치 오차 정보(350)를 확인하는 동작은, 외부 카메라 장치로부터 제 1 디스플레이(411)의 제 1 영역(621)이 촬영된 제 1 이미지 및 제 2 디스플레이(412)의 제 2 영역(622)이 촬영된 제 2 이미지를 획득하는 동작, 및 제 1 이미지 및 제 2 이미지를 기반으로 배치 오차 정보(350)를 확인하는 동작을 포함할 수 있다.
일 실시예에 따른 적어도 하나의 구동 시점을 조정하는 동작은, 제 1 디스플레이(411)에 대한 제 1 영역(331)의 타단 경계 라인이 제 2 디스플레이(412)에 대한 제 1 영역(332)의 타단 경계 라인과 실질적으로 동일한 라인을 형성하도록, 제 1 디스플레이(411)에 대한 제 1 구동시점 및 제 2 디스플레이(412)에 대한 제 2 구동 시점 중 하나에 대응되는 구동 시점을 조정하는 동작을 포함할 수 있다.
일 실시예에 따른 방법은 제 1 홀 센서(911)를 사용하여, 상기 제 1 디스플레이(411)에 포함된 제 1 자성체(901)에 기반한 제 1 자기장을 측정하는 동작, 제 2 홀 센서(912)를 사용하여, 상기 제 2 디스플레이(412)에 포함된 제 2 자성체(902)에 기반한 제 2 자기장을 측정하는 동작, 및 상기 제 1 자기장 및 상기 제 2 자기장을 기반으로, 상기 상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412) 간의 상기 배치 오차 정보(350)를 확인하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
Claims (15)
- 사용자의 머리에 착용되는 전자 장치(101)에 있어서,좌안에 대응하여 배치되는 제 1 디스플레이(411);우안에 대응하여 배치되는 제 2 디스플레이(412);메모리(130); 및상기 제 1 디스플레이(411), 상기 제 2 디스플레이(412), 및 상기 메모리(130)에 작동적으로 연결된 프로세서(120)를 포함하고,상기 프로세서(120)는,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412) 간의 배치 오차 정보(350)를 확인하고,상기 확인된 배치 오차 정보(350)가 설정된 임계값을 초과하는 경우, 상기 제 1 디스플레이(411)에 대한 제 1 구동시점 및 상기 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인하고,상기 확인된 배치 오차 정보(350)를 기반으로, 상기 제 1 구동시점 및 상기 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정하고,상기 조정된 구동 시점을 기반으로, 상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시하는 전자 장치.
- 제 1 항에 있어서,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)는,상기 적어도 하나의 컨텐츠가 표시되기 위한 제 1 영역(621) 및 상기 적어도 하나의 컨텐츠가 표시되지 않는 제 2 영역(622)을 포함하고,상기 제 2 영역(622)은 상기 제 1 영역(621)의 일단 경계 라인으로부터 연장된 제 1 더미 영역(602), 및 상기 제 1 영역(621)의 타단 경계 라인으로부터 연장된 제 2 더미 영역(603)을 포함하는 전자 장치.
- 제 1 항 내지 제 2 항에 있어서,상기 제 1 영역(621)의 표시 위치가 상기 조정된 구동 시점을 기반으로, 상기 제 1 더미 영역(602) 및 상기 제 2 더미 영역(603) 중 하나를 적어도 부분적으로 포함하는 형태로 이동되는 전자 장치.
- 제 1 항 내지 제 3 항에 있어서,상기 제 1 영역(621)이 이동하는 상황에서, 상기 제 1 영역(621)의 면적은 일정하게 유지되고,상기 제 1 더미 영역(602)과 상기 제 2 더미 영역(603)에 대한 면적의 합은 일정하게 유지되는 전자 장치.
- 제 1 항 내지 제 4 항에 있어서,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)는 복수 개의 픽셀 라인들이 설정된 간격에 따라 나란히 배열되는 형태로 구현되고,상기 프로세서(120)는,상기 적어도 하나의 컨텐츠를 표시하는 상황에 응답하여, 상기 조정된 구동 시점을 기반으로 상기 복수 개의 픽셀 라인들을 일 방향을 따라 순차적으로 점등하는 전자 장치.
- 제 1 항 내지 제 5 항에 있어서,상기 프로세서(120)는,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412) 중 하나에 대응되는, 상기 제 1 영역(621)에 대한 구동 시작 시점을 확인하고,상기 획득된 배치 오차 정보(350)를 기반으로 상기 제 1 영역(621)에 대한 구동 시작 시점을 조정하는 전자 장치.
- 제 1 항 내지 제 6 항에 있어서,상기 프로세서(120)는,외부 카메라 장치로부터 상기 제 1 디스플레이(411)의 상기 제 1 영역(621)이 촬영된 제 1 이미지 및 상기 제 2 디스플레이(412)의 상기 제 2 영역(622)이 촬영된 제 2 이미지를 획득하고,상기 제 1 이미지 및 상기 제 2 이미지를 기반으로 상기 배치 오차 정보(350)를 확인하는 전자 장치.
- 제 1 항 내지 제 7 항에 있어서,상기 프로세서(120)는,상기 제 1 디스플레이(411)에 대한 상기 제 1 영역(331)의 타단 경계 라인이 상기 제 2 디스플레이(412)에 대한 상기 제 1 영역(332)의 타단 경계 라인과 실질적으로 동일한 라인을 형성하도록, 상기 제 1 디스플레이(411)에 대한 상기 제 1 구동시점 및 상기 제 2 디스플레이(412)에 대한 상기 제 2 구동 시점 중 하나에 대응되는 구동 시점을 조정하는 전자 장치.
- 제 1 항에 있어서,상기 제 1 디스플레이(411)에 포함된 제 1 자성체(901)를 센싱하기 위한 제 1 홀 센서(911); 및상기 제 2 디스플레이(412)에 포함된 제 2 자성체(902)를 센싱하기 위한 제 2 홀 센서(912); 를 더 포함하고,상기 프로세서(120)는,상기 제 1 홀 센서(911)를 사용하여, 상기 제 1 자성체(901)에 기반한 제 1 자기장을 측정하고,상기 제 2 홀 센서(912)를 사용하여, 상기 제 2 자성체(902)에 기반한 제 2 자기장을 측정하고,상기 제 1 자기장 및 상기 제 2 자기장을 기반으로, 상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)에 대한 상기 배치 오차 정보(350)를 확인하도록 설정된 전자 장치.
- 사용자의 머리에 착용되는 전자 장치(101)에서 디스플레이에 대한 구동 시점을 조정하는 방법에 있어서,좌안에 대응하여 배치된 제 1 디스플레이(411) 및 우안에 대응하여 배치된 제 2 디스플레이(412) 간의 배치 오차 정보(350)를 확인하는 동작;상기 확인된 배치 오차 정보(350)가 설정된 임계값을 초과하는 경우, 상기 제 1 디스플레이(411)에 대한 제 1 구동시점 및 상기 제 2 디스플레이(412)에 대한 제 2 구동 시점을 확인하는 동작;상기 확인된 배치 오차 정보(350)를 기반으로, 상기 제 1 구동시점 및 상기 제 2 구동 시점 중 적어도 하나의 구동 시점을 조정하는 동작; 및상기 조정된 구동 시점을 기반으로, 상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)를 통해, 적어도 하나의 컨텐츠를 표시하는 동작; 을 포함하는 방법.
- 제 10 항에 있어서,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)는 상기 적어도 하나의 컨텐츠가 표시되기 위한 제 1 영역(621) 및 상기 적어도 하나의 컨텐츠가 표시되지 않는 제 2 영역(622)을 포함하고,상기 제 2 영역(622)은 상기 제 1 영역(621)의 일단 경계 라인으로부터 연장된 제 1 더미 영역(602), 및 상기 제 1 영역(621)의 타단 경계 라인으로부터 연장된 제 2 더미 영역(603)을 포함하는 방법.
- 제 10 항 내지 제 11 항에 있어서,상기 적어도 하나의 컨텐츠를 표시하는 동작은,상기 제 1 영역(621)의 표시 위치가 상기 조정된 구동 시점을 기반으로, 상기 제 1 더미 영역(602) 및 상기 제 2 더미 영역(603) 중 하나를 적어도 부분적으로 포함하는 형태로 이동되는 동작; 을 더 포함하는 방법.
- 제 10 항 내지 제 12 항에 있어서,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412)는 복수 개의 픽셀 라인들이 설정된 간격에 따라 나란히 배열되는 형태로 구현되고,상기 적어도 하나의 컨텐츠를 표시하는 동작은,상기 조정된 구동 시점을 기반으로 상기 복수 개의 픽셀 라인들을 일 방향을 따라 순차적으로 점등하여, 상기 적어도 하나의 컨텐츠를 표시하는 동작을 포함하는 방법.
- 제 10 항 내지 제 13 항에 있어서,상기 적어도 하나의 구동 시점을 조정하는 동작은,상기 제 1 디스플레이(411) 및 상기 제 2 디스플레이(412) 중 하나에 대응되는, 상기 제 1 영역(621)에 대한 구동 시작 시점을 확인하는 동작; 및상기 획득된 배치 오차 정보(350)를 기반으로 상기 제 1 영역(621)에 대한 구동 시작 시점을 조정하는 동작; 을 포함하는 방법.
- 제 10 항 내지 제 14 항에 있어서,상기 적어도 하나의 구동 시점을 조정하는 동작은,상기 제 1 디스플레이(411)에 대한 상기 제 1 영역(331)의 타단 경계 라인이 상기 제 2 디스플레이(412)에 대한 상기 제 1 영역(332)의 타단 경계 라인과 실질적으로 동일한 라인을 형성하도록, 상기 제 1 디스플레이(411)에 대한 상기 제 1 구동시점 및 상기 제 2 디스플레이(412)에 대한 상기 제 2 구동 시점 중 하나에 대응되는 구동 시점을 조정하는 동작; 을 포함하는 방법.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220100507 | 2022-08-11 | ||
KR10-2022-0100507 | 2022-08-11 | ||
KR1020220117316A KR20240022373A (ko) | 2022-08-11 | 2022-09-16 | 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치 |
KR10-2022-0117316 | 2022-09-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024034895A1 true WO2024034895A1 (ko) | 2024-02-15 |
Family
ID=89851963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2023/010307 WO2024034895A1 (ko) | 2022-08-11 | 2023-07-18 | 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2024034895A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8629815B2 (en) * | 2011-08-09 | 2014-01-14 | Google Inc. | Laser alignment of binocular head mounted display |
KR20160022924A (ko) * | 2013-06-24 | 2016-03-02 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Hmd의 최적의 눈 맞춤을 위한 시스템 |
US20170205630A1 (en) * | 2015-10-12 | 2017-07-20 | Intel Corporation | Adjustable pupil distance wearable display |
KR101824501B1 (ko) * | 2011-05-19 | 2018-02-01 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법 |
US10448001B2 (en) * | 2016-06-03 | 2019-10-15 | Mopic Co., Ltd. | Display device and displaying method for glass free stereoscopic image |
-
2023
- 2023-07-18 WO PCT/KR2023/010307 patent/WO2024034895A1/ko unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101824501B1 (ko) * | 2011-05-19 | 2018-02-01 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치의 이미지 표시 제어 장치 및 방법 |
US8629815B2 (en) * | 2011-08-09 | 2014-01-14 | Google Inc. | Laser alignment of binocular head mounted display |
KR20160022924A (ko) * | 2013-06-24 | 2016-03-02 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Hmd의 최적의 눈 맞춤을 위한 시스템 |
US20170205630A1 (en) * | 2015-10-12 | 2017-07-20 | Intel Corporation | Adjustable pupil distance wearable display |
US10448001B2 (en) * | 2016-06-03 | 2019-10-15 | Mopic Co., Ltd. | Display device and displaying method for glass free stereoscopic image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022169255A1 (ko) | 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법 | |
WO2022124734A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체 | |
WO2022014836A1 (ko) | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 | |
WO2023106895A1 (ko) | 가상 입력 장치를 이용하기 위한 전자 장치 및 그 전자 장치에서의 동작 방법 | |
WO2024034895A1 (ko) | 디스플레이 패널의 구동 시점을 조정하는 방법 및 전자 장치 | |
WO2024117452A1 (ko) | 사용자의 움직임에 대한 트래킹 정보에 기반하여 렌더링을 하기 위한 전자 장치 및 방법 | |
WO2023121120A1 (ko) | 간섭 제거 방법 및 상기 방법을 수행하는 전자 장치 | |
WO2024043546A1 (ko) | 사용자의 움직임을 트래킹 하기 위한 전자 장치 및 방법 | |
WO2024010220A1 (ko) | 거리 센서 활성화 방법 및 전자 장치 | |
WO2024034811A1 (ko) | 시선 방향을 식별하는 전자 장치 및 그 작동 방법 | |
WO2024167174A1 (ko) | 컨트롤러 장치 및 웨어러블 전자 장치를 이용한 컨트롤러 장치 추적 방법 | |
WO2022050638A1 (ko) | 디스플레이의 설정 변경 방법 및 전자 장치 | |
WO2022231162A1 (ko) | 증강 현실 장치 및 증강 현실 장치와 상호작용하는 전자 장치 | |
WO2024063330A1 (ko) | 웨어러블 전자 장치 및 상기 웨어러블 전자 장치를 이용하여 컨트롤러를 식별하는 방법 | |
WO2024111901A1 (ko) | 복수의 디스플레이 패널을 포함하는 헤드 마운트 장치 및 그의 동작 방법 | |
WO2023054877A1 (ko) | 증강 현실 서비스를 제공하기 위한 전자 장치 및 그의 동작 방법 | |
WO2024063253A1 (ko) | 카메라로부터 획득한 이미지 내에 포함된 복수의 영역들 각각의 해상도들을 제어하기 위한 전자 장치 및 그 방법 | |
WO2024043438A1 (ko) | 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법 | |
WO2022050605A1 (ko) | 전자 장치 및 사용자의 시선 정보 획득 방법 | |
WO2023027276A1 (ko) | 스타일러스 펜을 이용하여 복수의 기능들을 실행하기 위한 전자 장치 및 그 작동 방법 | |
WO2024101704A1 (ko) | 터치 입력을 식별하는 웨어러블 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 | |
WO2023063572A1 (ko) | 바이저의 투과율과 디스플레이의 밝기를 조절하는 웨어러블 전자 장치 | |
WO2024043611A1 (ko) | 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치 | |
WO2024080579A1 (ko) | 사용자의 자세를 가이드하기 위한 웨어러블 장치 및 그 방법 | |
WO2024029740A1 (ko) | 입력 장치를 이용하여 드로잉 데이터를 출력하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23852776 Country of ref document: EP Kind code of ref document: A1 |