KR20230058992A - 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법 - Google Patents

라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법 Download PDF

Info

Publication number
KR20230058992A
KR20230058992A KR1020210142940A KR20210142940A KR20230058992A KR 20230058992 A KR20230058992 A KR 20230058992A KR 1020210142940 A KR1020210142940 A KR 1020210142940A KR 20210142940 A KR20210142940 A KR 20210142940A KR 20230058992 A KR20230058992 A KR 20230058992A
Authority
KR
South Korea
Prior art keywords
distance
subject
light source
electronic device
transmission power
Prior art date
Application number
KR1020210142940A
Other languages
English (en)
Inventor
윤주환
전진아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210142940A priority Critical patent/KR20230058992A/ko
Priority to PCT/KR2022/015781 priority patent/WO2023075255A1/ko
Priority to EP22887451.7A priority patent/EP4390450A1/en
Priority to CN202280072067.9A priority patent/CN118176435A/zh
Priority to US18/094,634 priority patent/US20230168379A1/en
Publication of KR20230058992A publication Critical patent/KR20230058992A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4868Controlling received signal intensity or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

일 실시예에 따른 전자 장치는 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들을 포함하는 Rx 센서와 펄스 레이저를 출력하는 Tx 광원을 포함하는 라이다 시스템, 및 Tx 광원의 구동 전에, Rx 센서에 포함된 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하고, 피사체와의 거리에 기초하여 광원의 송출 전력을 적응적으로 결정하며, Tx 광원이 송출 전력에 따라 펄스 레이저를 출력하도록 제어하는 프로세서를 포함할 수 있다.

Description

라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법{LIDAR SYSTEM, ELECTRONIC DEVICE INCLUDING LIDAR SYSTEM, AND CONTROL METHOD THEREOF}
본 발명의 다양한 실시예들은 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법에 관한 것이다.
증강 현실(augmented reality; AR) 기기는 현실에 기반하여 가상의 정보를 추가 제공하는 기기로서, 현실 세계의 이미지나 배경에 가상의 이미지를 추가하여 보여주어 가상 현실을 제공할 수 있다. 증강 현실 기기는 주변 환경 및 피사체의 움직임을 인식하여 위치 추적, 또는 3D 맵핑(mapping)을 구현하고, 제스쳐(gesture) 인식을 통하여 인터페이스에 활용할 수 있다. 또한, 라이다(light detection and ranging, LiDAR)는 광학 펄스로 피사체를 비춘 후 반사된 반송 신호의 특징을 측정함으로써 피사체를 감지해 거리를 맵핑하거나 또는 피사체의 제스쳐를 인식할 수 있다.
라이다는 피사체와의 가변적 거리를 고려하지 않고, 지정된 거리에 기반한 정해진 전송 전력을 송출하여 피사체를 감지할 수 있다. 이때, 거리를 고려하지 않고 정해진 고정된 전송 전력을 송출하는 경우, 피사체와의 거리가 가깝다면 불필요한 전송 전력의 손실이 발생하고, 피사체와의 거리가 멀다면 전송 전력의 부족으로 인해 피사체를 인식하지 못할 수 있다.
다양한 실시예들에 따르면, 피사체와의 거리를 고려하여 라이다의 전송 전력을 적응적으로 결정함으로써 피사체와의 거리가 먼 경우에 전송 전력을 증가시켜 피사체를 인식하고, 피사체와의 거리가 가까운 경우에 라이다의 전송 전력을 감소시켜 적은 전력으로 피사체를 인식할 수 있다.
다양한 실시예들에 따르면, 라이다 시스템을 포함하는 전자 장치의 소모 전류를 절감할 수 있다.
일 실시예에 따르면, 전자 장치는 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들(auto focus pixels)을 포함하는 Rx 센서와 펄스 레이저를 출력하는 Tx 광원을 포함하는 라이다 시스템, 및 상기 Tx 광원의 구동 전에, 상기 Rx 센서에 포함된 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어하는 프로세서를 포함할 수 있다.
일 실시예에 따르면, 웨어러블 전자 장치는 복수의 영상 프레임들을 포함하는 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들을 포함하는 Rx 센서, 펄스 레이저를 출력하는 Tx 광원, 상기 Tx 광원의 구동 전에 상기 Rx 센서에 포함된 상기 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하며, 상기 영상 정보 및 상기 피사체와의 거리에 기초하여 가상의 컨텐츠를 생성하는 프로세서, 및 상기 가상의 컨텐츠를 표시하는 디스플레이를 포함할 수 있다.
일 실시예에 따르면, 라이다 시스템은 펄스 레이저를 출력하는 Tx 광원, 및 상기 펄스 레이저가 피사체에 반사된 펄스 신호들을 수신하는 Rx 센서를 포함하고, 상기 Rx 센서는 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들을 포함하고, 상기 오토포커스 픽셀들에 대응하는 오토포커스 영상들 간의 시차를 기초로, 상기 피사체와의 거리를 산출할 수 있다.
일 실시예에 따르면, Rx 센서 및 Tx 광원을 포함하는 전자 장치의 제어 방법은 상기 Tx 광원의 구동 전에 상기 Rx 센서에 포함된 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하는 동작, 상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하는 동작, 및 상기 Tx 광원이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하는 동작을 포함할 수 있다.
일 실시예에 따른 라이다 시스템은 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출할 수 있다.
일 실시예에 따른 전자 장치는 피사체와의 거리가 먼 경우에도 전송 전력을 증가시킴으로써 커버리지를 확장할 수 있다.
일 실시예에 따른 전자 장치는 피사체와의 거리가 가까운 경우에 라이다의 전송 전력을 감소시킴으로써 불필요한 전송 전력의 손실이 방지할 수 있다.
일 실시예에 따른 전자 장치는 피사체와의 거리를 고려하여 라이다의 전송 전력을 적응적으로 결정함으로써 라이다의 소모 전류를 절감하고, 라이다의 성능을 향상시킬 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 라이다 시스템의 일반적인 동작을 설명하기 위한 도면이다.
도 3은 라이다 시스템의 전송 전력이 고정된 경우의 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 라이다 시스템의 구조를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 라이다 시스템을 포함하는 전자 장치의 블록도이다.
도 6은 일 실시예에 따른 라이다 시스템을 포함하는 전자 장치에서 피사체와의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 오토포커스 영상들의 초점이 맞는(in-focus) 경우, 초점의 위치가 앞(front-focus)인 경우, 및 초점의 위치가 뒤(back-focus)인 경우의 위상차를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 위상차에 기초하여 피사체와의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 은 일 실시예에 따라 전자 장치에서 Tx 광원의 송출 전력이 적응적으로 결정된 경우의 동작을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 웨어러블 전자 장치의 블록도이다.
도 11는 일 실시예에 따른 전자 장치의 제어 방법을 나타낸 흐름도이다.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이(160), 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 지문 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 픽셀들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다.
일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 라이다 시스템의 일반적인 동작을 설명하기 위한 도면이다. 도 2를 참조하면, 라이다(light detection and ranging, LiDAR) 시스템(200)은 레이저 송신부(210), 제1 렌즈(220), 레이저 검출부(230), 제2 렌즈(240), 제어부(250)를 포함할 수 있다.
레이저 송신부(210)는 제1 렌즈(220)를 통해 피사체들(201, 203)에게 펄스 신호, 다시 말해 펄스 레이저를 출력할 수 있다. 레이저 송신부(210)의 광원으로는 예를 들어, 250nm부터 11μm까지의 파장 영역에서 특정 파장을 가지거나 파장 가변이 가능한 레이저 광원들이 사용되며, 소형, 및/또는 저전력이 가능한 반도체 레이저 다이오드가 사용될 수도 있다.
레이저 검출부(230)는 레이저 송신부(210)가 출력한 펄스 레이저가 피사체들(201, 203)로부터 반사되어 제2 렌즈(240)를 통해 수집된 레이저 신호를 검출할 수 있다.
제어부(250)는 레이저 검출부(230)에 의해 검출된 신호를 수집하여 처리한 데이터를 프로세서(예: 도 5의 프로세서(530))에게 송, 수신할 수 있다.
라이다 시스템(200)은 레이저 신호의 변조 방법에 따라 예를 들어, TOF(time-of-flight) 방식과 위상 변위(phase-shift) 방식으로 구분될 수 있다. TOF 방식은 레이저 송신부(210)가 펄스 신호를 방출하여 측정 범위 내에 있는 피사체들(201, 203)로부터의 반사 펄스 신호들이 레이저 검출부(230)에 도착하는 시간(t1, t2)을 측정함으로써 피사체들(201, 203)과의 거리를 측정하는 방식이다. 위상 변위 방식은 레이저 송신부(210)가 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고, 레이저 검출부(230)가 측정 범위 내에 있는 물체로부터 반사되어 되돌아오는 신호의 위상 변화량을 측정하여 시간 및 거리를 계산하는 방식이다.
라이다 시스템(200)은 전술한 과정을 통해 피사체들(201, 203)을 감지하는 센싱 방식을 통해 거리를 맵핑할 수 있다. 예를 들어, 광원의 펄스 전력, 펄스 신호의 왕복 시간, 위상 변이, 및/또는 펄스 폭은 라이다 시스템(200)에서 정보를 추출하는데 쓰이는 일반적인 파라미터들에 해당할 수 있다.
일반적인 라이다 시스템(200)은 레이저 송신부(210)가 펄스 신호를 방출하여 측정 범위 내에 있는 피사체들(201, 203)로부터의 거리 정보를 획득하는 방식으로 이용될 수 있다.
도 3은 라이다 시스템의 전송 전력이 고정된 경우의 동작을 설명하기 위한 도면이다. 도 3을 참조하면, 라이다 시스템(예: 도 2의 라이다 시스템(200))의 전송 전력이 피사체가 위치하는 일정 거리 A에 대응되는 고정된 값으로 설정된 경우를 나타낸 도면(310), 피사체가 A보다 가까운 근거리에 있는 경우를 나타낸 도면(320), 및 피사체가 A보다 먼 원거리에 있는 경우를 나타낸 도면(330)이 도시된다.
예를 들어, 라이다 시스템(200)의 전송 전력이 도면(310)에 도시된 것과 같이 일정 거리 A에 대응되도록 고정될 수 있다. 이 경우, 라이다 시스템(200)은 전력의 소모없이 효율적으로 피사체(예: 사람)를 인식할 수 있다.
이와 달리, 라이다 시스템(200)이 피사체와의 거리를 고려하지 않고, 일정 거리 A에 고정된 전송 전력으로 펄스 레이저를 송출하는 경우, 라이다 시스템(200)의 성능 및 효율이 저하될 수 있다.
예를 들어, 피사체가 도면(320)과 같이 A 보다 근거리에 있거나, 도면(330)과 같이 A 보다 원거리에 있을 수 있다. 피사체가 도면(320)과 같이 A 보다 근거리에 있는 경우, A에 비해 적은 전송 전력이 사용될 수 있다. 이때, A에 고정된 전송 전력으로 펄스 레이저를 송출하면, 불필요한 고전력을 소모하여 라이다 시스템(200)의 전력 효율이 저하될 수 있다. 또는, 피사체가 도면(330)과 같이 A 보다 원거리에 있는 경우, A보다 먼 거리이므로 A에 비해 많은 전송 전력이 사용될 수 있다. 이때, A에 고정된 전송 전력으로 펄스 레이저를 송출하면, 라이다 시스템(200)의 전송 전력에 마진이 있는 경우에도 전송 전력 부족으로 인해 피사체의 인식이 어려울 수 있다.
이와 달리, 일 실시예에 따른 라이다 시스템(예: 도 4의 라이다 시스템(400), 도 5의 라이다 시스템(510))은 초기 동작 시에 피사체와의 거리를 파악하고, 광원의 전송 전력을 파악된 거리에 적응적으로 결정함으로써 라이다 시스템의 전력 효율 및/또는 성능을 향상시킬 수 있다.
도 4는 일 실시예에 따른 라이다 시스템의 구조를 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에 따른 라이다 시스템(400)은 Rx 센서(410) 및 Tx 광원(430)을 포함할 수 있다.
Rx 센서(410)는 Tx 광원(430)이 출력하는 펄스 레이저가 피사체에 반사된 펄스 신호들을 수신할 수 있다.
Rx 센서(410)는 도 2를 통해 전술한 라이다 시스템(200)에서와 달리, 영상 정보를 감지하는 이미지 픽셀들(411) 내에 산재된 오토포커스 픽셀들(phase auto pixels)(413)을 포함할 수 있다. 오토포커스 픽셀들(413)은 오토포커스 영상들을 획득할 수 있다. 오토포커스 픽셀들(413)은 예를 들어, 위상(phase) 기반의 오토포커스 픽셀들일 수 있다. 이하, 설명의 편의를 위하여 위상 기반의 오토포커스 픽셀을 '오토포커스 픽셀'로 간략화하여 표현할 수 있다. 오토포커스 픽셀들(413)은 캡쳐된 정보의 단일 프레임(frame)에 기반하여 렌즈 위치 이동의 정확한 방향 및 양을 판정할 수 있게 함으로써 포커싱(focusing) 속도를 향상시킬 수 있다. 이미지 픽셀들(411)은 '이미지 픽셀 센서들'이라고 불릴 수도 있다. 또한, 오토포커스 픽셀들(413)은 '오토포커스 픽셀 센서들'이라 불릴 수 있다.
라이다 시스템(400)은 오토포커스 픽셀들(413)에 대응하는 오토포커스 영상들(AF images)(예: 도 6의 오토포커스 영상들(625,635)) 간의 시차를 기초로, 피사체와의 거리를 산출할 수 있다. 오토포커스 영상들은 예를 들어, 오토포커스 픽셀들의 페어(415)(pair)를 통해 수신되는 좌측 오토포커스 영상 및 우측 오토포커스 영상일 수 있다. 오토포커스 영상들은 예를 들어, 오토포커스 픽셀의 페어(415)에서 측정되거나 확보되는 강도(intensity)와 연관된 그레이 스케일 이미지를 포함할 수도 있다. 오토포커스 픽셀들의 페어(415)는 해상도를 제공하는데 충분한 밀도로 이미지 픽셀들(411) 내에 산재될 수 있다.
이미지 픽셀들(411) 및 오토포커스 픽셀들(413)은 예를 들어, 전하 결합 디바이스(charge-coupled device), 능동 픽셀 센서(active pixel sensor), 광다이오드(photodiode), 또는 빛을 전기적 신호로 변환하는 임의의 다른 디바이스와 같은 임의의 광 센서(photo sensor)를 포함할 수 있으며, 반드시 이에 한정되지는 않는다.
오토포커스 픽셀들(413)의 페어는 두 개의 오토포커스 영상들을 확보할 수 있도록 임의의 방식으로 배열될 수 있다. 오토포커스 픽셀들(413)의 페어는 도 4에 도시된 오토포커스 픽셀들의 페어(415)와 같이 사선(diagonally)으로 인접하여 배열될 수 있다. 또는 오토포커스 픽셀들(413)의 페어는 수평으로 인접하여 배열되거나, 또는 수직으로 인접하여 배열될 수 있다. 여기서, '인접하여 배열된다'는 의미는 페어를 구성하는 두 개의 오토포커스 픽셀들이 서로 인접하되, 오토포커스 픽셀들 간의 위상차, 또는 시차가 발생하는 일정 오프셋만큼 분리되어 배열된다는 의미로 이해될 수 있다. 오토포커스 픽셀들(413)의 페어는 예를 들어, 아래의 도 6에 도시된 Rx 센서(600)에서와 같이 균일한 패턴으로 배열될 수도 있고, 또는 균일하지 않은 패턴, 다시 말해 변화하는 패턴으로 배열될 수도 있다.
오토포커스 픽셀들(413)이 획득한 오토포커스 영상들 간의 위상차는 피사체와의 거리를 산출하는데 이용될 수 있다.
Tx 광원(430)은 도 2를 통해 전술한 라이다 시스템(200)의 레이저 송신부(210)와 같이 펄스 레이저를 출력하되, 오토포커스 영상들 간의 위상차에 기초하여 산출된 피사체와의 거리에 의해 송출 전력이 적응적으로 조절될 수 있다.
일 실시예에 따른 라이다 시스템(400)은 도 2를 통해 전술한 일반적인 라이다 시스템에서의 레이저 송신부(210)와 레이저 검출부(230)의 사용 용도와 반대로, Tx 광원(430)이 아닌 Rx 센서(410)의 오토포커스 픽셀들(413)에 대응하는 오토포커스 영상들(AF images) 간의 시차를 기초로 피사체와의 거리를 산출하고, 이를 기초로 Tx 광원(430)의 전송 전력을 조정하여 소모 전류의 절감 혹은 라이다 시스템(400)의 성능을 향상시킬 수 있다.
도 5는 일 실시예에 따른 라이다 시스템을 포함하는 전자 장치의 블록도이다. 도 5를 참조하면, 일 실시예에 따른 전자 장치(500)(예: 도 1의 전자 장치(101))는 라이다 시스템(510)(예: 도 4의 라이다 시스템(400)) 및 프로세서(530)를 포함할 수 있다. 또한, 전자 장치(500)는 카메라(550)(예: 도 1의 카메라 모듈(180)) 및 메모리(570)(예: 도 1의 메모리(130))를 더 포함할 수 있다. 라이다 시스템(510), 프로세서(530), 카메라(550), 및 메모리(570)는 통신 버스(505)를 통해 서로 연결될 수 있다.
라이다 시스템(510)은 Rx 센서(511) 및 Tx 광원(513)을 포함할 수 있다. Rx 센서(511)는 영상 정보를 감지하는 이미지 픽셀들(예: 도 4의 이미지 픽셀들(411) 및 도 6의 이미지 픽셀들(610)) 내에 산재된 오토포커스 픽셀들(예: 도 4의 오토포커스 픽셀들(413), 도 6의 오토포커스 픽셀들(620, 630))을 포함할 수 있다. Tx 광원(513)은 펄스 레이저를 출력할 수 있다. 라이다 시스템(510)은 예를 들어, 도 4를 통해 전술한 라이다 시스템(400)에 해당할 수 있다.
프로세서(530)는 라이다 시스템(510)에서 Tx 광원(513)을 구동하기 전에, Rx 센서(511)에 포함된 오토포커스 픽셀들(620, 630)을 이용하여 피사체와의 거리를 산출할 수 있다. 예를 들어, 프로세서(530)는 주변 랜더링이 완료된 이후, 주변의 변경 사항이 없는 상태에서 오토포커스 픽셀들(620, 630)을 이용하여 피사체의 움직임을 감지할 수 있다. 프로세서(530)는 카메라(550)에 캡쳐된 영상 프레임들의 프레임 레이트(frame rate)로부터 주변의 변경 사항을 검출할 수 있다.
프로세서(530)는 피사체의 움직임이 확인된 경우 라이다 시스템(510)에서 Tx 광원(513)을 구동할 수 있다.
프로세서(530)는 오토포커스 픽셀들(620, 630)을 이용하여 피사체가 포커싱되는지 여부를 결정할 수 있다. 피사체가 포커싱되는 경우, 프로세서(530)는 포커싱한 피사체와의 거리를 산출할 수 있다.
예를 들어, 피사체가 포커싱되지 않는 경우, 프로세서(530)는 Tx 광원(513)은 구동하지 않고, Rx 센서(511)의 오토포커스 픽셀들(620, 630)을 구동하여 주변을 스캐닝 함으로써 Tx 광원(513)의 불필요한 고전력 송출을 수행하지 않음으로써 전력 효율을 향상시킬 수 있다.
전자 장치(500)는 예를 들어, 헤드 마운티드 디스플레이(head mounted display; HMD) 장치와 같은 웨어러블 전자 장치일 수 있다. 헤드 마운티드 디스플레이 장치는 주변 인식을 위해 장착 시에 지속적으로 공간을 모델링할 수 있다. 정확한 제스처나 어떤 특정 인식이 필요한 사물이 없을 경우, 다시 말해, 주변 환경의 변화가 없을 경우, 전자 장치(500)는 라이다 시스템(510)의 Rx 센서(511) 및 Tx 광원(513)을 이용하여 지속적으로 주변 환경을 인식하는 대신에, Rx 센서(511)만으로 주변을 스캔함으로써 Tx 광원(513)의 소모 전류를 줄일 수 있다. 전자 장치(500)는 주변 환경의 변화, 다시 말해 인식이 필요한 피사체가 출현하거나, 또는 제스처가 발생하여 정확한 깊이 정보를 확보할 필요가 있는 경우에 Tx 광원(513)을 사용할 수 있다.
프로세서(530)는 피사체를 촬영한 오토포커스 픽셀들(620, 630)에 대응하는 오토포커스 영상들(예: 도 6의 오토포커스 영상들(625,635)) 간의 위상차(또는 시차)를 기초로, 피사체와의 거리를 산출할 수 있다. 프로세서(530)는 오토포커스 영상들(625,635)에 대응하는 위상들 간의 상관(correlation) 연산에 의해 오토포커스 영상들(625,635)에 대응하는 위상들 간의 위상차를 산출하고, 위상차에 기초하여 피사체와의 거리를 산출할 수 있다. 프로세서(530)가 피사체와의 거리를 산출하는 방법은 아래의 도 6 내지 도 7을 참조하여 보다 구체적으로 설명한다.
프로세서(530)는 피사체와의 거리에 기초하여 Tx 광원(513)의 송출 전력을 적응적으로 결정할 수 있다. 예를 들어, 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 프로세서(530)는 Tx 광원(513)의 송출 전력을 제1 전력으로 조절할 수 있다. 또는, 피사체와의 거리가 제1 거리보다 멀고, 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 프로세서(530)는 Tx 광원(513)의 송출 전력을 제1 전력보다 큰 제2 전력으로 조절할 수 있다. 또는, 피사체와의 거리가 제2 거리보다 멀고, 제2 거리보다 먼 제3 거리와 같거나 더 가까운 경우, 프로세서(530)는 Tx 광원(513)의 송출 전력을 제2 전력보다 큰 제3 전력으로 조절할 수 있다. 이때, 피사체와의 거리에 따른 송출 전력의 소모량은 예를 들어, 룩-업 테이블 형태로 미리 저장될 수도 있다.
프로세서(530)는 Tx 광원(513)이 적응적으로 결정된 송출 전력에 따라 펄스 레이저를 출력하도록 제어할 수 있다.
실시예에 따라서, 전자 장치(500)는 오토포커싱 기능을 포함하는 카메라(550)를 더 포함할 수 있다. 이 경우, 프로세서(530)는 카메라(550)의 오토포커싱 기능을 이용하여 획득한 피사체와의 초점이 맞는 거리 정보를 이용하여 Tx 광원(513)의 송출 전력을 적응적으로 결정하고, Tx 광원(513)이 송출 전력에 따라 펄스 레이저를 출력하도록 제어할 수 있다.
다만, 프로세서(530)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(530)는 도 6 내지 도 11를 통해 후술하는 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다.
메모리(570)는 프로세서(530)가 산출한 피사체와의 거리 및/또는 프로세서(530)가 적응적으로 결정한 Tx 광원(513)의 송출 전력을 저장할 수 있다. 또한, 메모리(570)는 프로세서(530)가 생성한 가상의 컨텐츠를 저장할 수 있다.
또한, 메모리(570)는 프로세서(530)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(570)는 각종 데이터와 프로그램을 저장할 수 있다. 메모리(570)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(570)는 하드 디스크와 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
도 6은 일 실시예에 따른 라이다 시스템을 포함하는 전자 장치에서 피사체와의 거리를 산출하는 방법을 설명하기 위한 도면이다. 도 6을 참조하면, 일 실시예에 따른 Rx 센서(600)(예: 도 4의 Rx 센서(410), 도 5의 Rx 센서(511))의 이미지 센서들(610) 내에 포함된 두 개의 오토포커스 픽셀들(620, 630)(예: 도 4의 오토포커스 픽셀들(413))에 대응하는 오토포커스 영상들(625, 635) 간에 시차가 발생한 상황이 도시된다. 오토포커스 영상들(625, 635)은 예를 들어, 우안 영상 및 좌안 영상에 해당할 수 있다.
Rx 센서(600)에서 예를 들어, 16x16 이미지 센서들(610)의 영역에 한 쌍의 오토포커스 픽셀(620, 630)이 배치될 수 있다. 이때, 오토포커스 영상(625)은 오토포커스 픽셀(620)에 의해 획득될 수 있다. 오토포커스 영상(635)은 오토포커스 픽셀(630)에 의해 획득될 수 있다.
전자 장치는 오토포커스 영상(625)과 오토포커스 영상(635) 간의 위상차 또는 디포커스(defocus) 양에 기초한 시차를 산출할 수 있다. 오토포커스 영상들에서의 위상차는 아래의 도 7을 참조하여 보다 구체적으로 설명한다.
도 7은 일 실시예에 따른 오토포커스 영상들의 초점이 맞는(in-focus) 경우, 초점의 위치가 앞(front-focus)인 경우, 및 초점의 위치가 뒤(back-focus)인 경우의 위상차를 설명하기 위한 도면이다.
도 7을 참조하면, 촬영 렌즈(photographic lens)(701)를 기준으로 초점이 맞는(in-focus) 경우의 오토포커스 영상들(710), 초점의 위치가 앞(front-focus)인 경우의 오토포커스 영상들(720), 및 초점의 위치가 뒤(back-focus)인 경우의 오토포커스 영상들(730)이 도시된다.
예를 들어, 촬영 렌즈(701)를 통과한 후 영상 평면(image plane)(703)을 거친 광선은 분리 렌즈들(705)을 통해 둘로 분할된 뒤, 각각 다른 오토포커스 픽셀들(707,708)(예: 도 4의 오토포커스 픽셀들(413), 도 6의 오토포커스 픽셀들(620, 630))에 피사체의 상을 맺을 수 있다. 여기서, 분리 렌즈들(705)은 예를 들어, 오토포커스 2차 마이크로 렌즈 어레이(AF secondary micro-lens arrays)에 해당할 수 있으며, 반드시 이에 한정되지는 않는다. 오토포커스 픽셀들(707,708)은 예를 들어, 매칭 라인 센서들(matching line sensors)에 해당할 수 있다.
전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(500))는 오토포커스 픽셀들(707,708)로부터 얻어진 오토포커스 영상들(710,720,730)의 위치 관계를 비교함으로써 초점의 위치를 파악할 수 있다.
도면(740)은 오토포커스 영상들(710)에 대응되는 초점이 맞는(correct-focus) 경우를 나타낼 수 있다. 이때, 오토포커스 픽셀들(707,708)의 정중앙에 빛이 모이게 되므로 오토포커스 영상들(710)에 대응하는 위상이 완벽하게 겹칠 수 있다.
도면(750)은 오토포커스 영상들(720)에 대응되는 초점의 위치가 앞(front-focus)인 경우를 나타낼 수 있다. 이때, 오토포커스 픽셀들(707,708)의 정중앙보다 안쪽에 빛이 모이게 되므로 오토포커스 영상들(720)에 대응하는 위상이 정중앙보다 안쪽에서 최고점이 찍히므로 피사체가 두 개로 갈라져 보일 수 있다.
또한, 도면(760)은 오토포커스 영상들(730)에 대응되는 초점의 위치가 뒤(back-focus)인 경우를 나타낼 수 있다. 이때, 오토포커스 픽셀들(707,708)의 정중앙보다 바깥쪽에 빛이 모이게 되므로 오토포커스 영상들(730)에 대응하는 위상이 정중앙보다 바깥쪽에서 최고점이 찍히므로 피사체가 두 개로 갈라져 보일 수 있다.
도면(740) 내지 도면(760)에서 오토포커스 픽셀들(707,708)의 출력 레벨 혹은 출력 파형(output wave)의 차이는 '위상차' 또는 '디포커스 양 '이라고 부를 수 있으며, 이는 오토포커스 영상들(710,720,730) 각각에서의 위치 정보의 차이에 해당할 수 있다. 이하, '위상차'와 '디포커스 양'은 동일한 의미로 이해될 수 있다.
예를 들어, 오토포커스 영상들(710)과 같이 초점이 맞는(correct-focus) 경우, 도면(740)에서의 위상차(또는 디포커스 양)를 X 라고 할 수 있다. 이때, 오토포커스 영상들(720)과 같이 초점의 위치가 앞(front-focus)이면, 도면(750)에서의 위상차는 X 보다 작을 수 있다. 또한, 오토포커스 영상들(730)과 같이 초점의 위치가 뒤(back-focus)이면, 도면(760)에서의 위상차는 X 보다 클 수 있다.
전자 장치(500)는 이와 같이, 오토포커스 픽셀들(707,708)로부터 얻어진 오토포커스 영상들(710,720,730)에서의 위상차를 통해 피사체와의 거리를 판별할 수 있다.
도 8은 일 실시예에 따른 위상차에 기초하여 피사체와의 거리를 산출하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(500))가 페어를 구성하는 오토포커스 픽셀들(예: 도 4의 오토포커스 픽셀들(413), 도 6의 오토포커스 픽셀들(620, 630), 도 7의 오토포커스 픽셀들(707,708))로부터 획득한 오토포커스 영상들(예: 도 6의 오토포커스 영상들(625,635))에 대응하는 위상차를 나타낸 그래프들(810, 830)이 도시된다.
전자 장치(500)는 두 개의 오토포커스 영상들(625,635)에 대응하는 위상들 간의 상관(correlation) 연산에 의해 오토포커스 영상들(625,635)에 대응하는 위상들 간의 위상차를 산출할 수 있다. 전자 장치(500)는 예를 들어, 상관 연산에 의해 오토포커스 영상들(625,635)에 대응하는 위상들을 픽셀 단위로 쉬프트(shift)시켜 오토포커스 영상들(625,635)에 대응하는 위상들 간의 위상차를 산출할 수 있다. 전자 장치(500)는 위상차에 기초하여 피사체와의 거리를 산출할 수 있다.
전자 장치(500)는 예를 들어, 그래프(810) 또는 그래프(830)과 같이 두 오토포커스 영상들(625,635)에 대응하는 위상들(A,B) 간의 차이가 0이 되도록 하는 거리를 산출함으로써 피사체와의 거리를 구할 수 있다.
전자 장치(500)는 예를 들어, 아래의 수학식 1과 같이 표현되는 SAD(sum of absolute differences) 기법, 또는 아래의 수학식 2와 같이 표현되는 SSD(sum of squared differences) 기법에 의해 두 오토포커스 영상들(625,635)에 대응하는 위상 A와 위상 B 간의 위상차
Figure pat00001
가 0이 되도록 하는 거리를 산출할 수 있다.
예를 들어, SAD 기법을 사용하는 경우, 위상차
Figure pat00002
는 아래의 수학식 1을 통해 구할 수 있다.
Figure pat00003
여기서, i는 픽셀 인덱스(pixel index)에 해당하고, n은 그래프(810)에서 위상 B(i)를 픽셀 단위로 쉬프트(shift)시켜 위상 A(i)와 일치하도록 하는 이동 거리에 해당할 수 있다. 이때, 이동 거리 n이 피사체와의 거리에 해당할 수 있다.
또는 SSD 기법을 사용하는 경우, 위상차
Figure pat00004
는 아래의 수학식 2를 통해 산출할 수 있다.
Figure pat00005
그래프(830)에서 최소점(835)의 x좌표는 위상차 값에 해당할 수 있다. 여기서, x좌표의 값이 피사체와의 거리(D)에 해당할 수 있다.
또는 전자 장치(500)는 두 오토포커스 영상들(625,635)에 대응하는 위상들의 곱이 최대가 되도록 하는 거리를 산출할 수 있다. 전자 장치(500)는 예를 들어, NNC(normalize cross-correlation) 기법 또는 아래의 수학식 3과 같은 CC(cross-correlation) 기법에 의해 위상들의 곱
Figure pat00006
이 최대가 되도록 하는 거리(n)를 산출할 수 있다.
Figure pat00007
도 9는 일 실시예에 따라 전자 장치에서 Tx 광원의 송출 전력이 적응적으로 결정된 경우의 동작을 설명하기 위한 도면이다. 도 9를 참조하면, 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(500))에서 피사체와의 거리 별로 Tx 광원(예: 도 4의 Tx 광원(430), 도 5의 Tx 광원(513), 도 10의 Tx 광원(1013))이 출력하는 펄스 레이저의 송출 전력들을 나타낸 도면들(910, 920, 930)이 도시된다.
예를 들어, 도면(910)과 같이, 피사체와의 거리가 근거리로 산출되면, 전자 장치(500)는 근거리에 대응하는 소전력을 송출 전력으로 결정할 수 있다. 전자 장치(500)는 소전력에 의해 Tx 광원(513)이 펄스 레이저를 출력하도록 제어할 수 있다.
또는, 도면(930)과 같이, 피사체와의 거리가 중거리로 산출되면, 전자 장치(500)는 중거리에 대응하는 중전력을 송출 전력으로 결정할 수 있다. 전자 장치(500)는 중전력에 의해 Tx 광원(513)이 펄스 레이저를 출력하도록 제어할 수 있다.
또는 도면(950)과 같이, 피사체와의 거리가 원거리로 산출되면, 전자 장치(500)는 원거리에 대응하는 대전력을 송출 전력으로 결정할 수 있다. 전자 장치(500)는 대전력에 의해 Tx 광원(513)이 펄스 레이저를 출력하도록 제어할 수 있다.
도 10은 일 실시예에 따른 웨어러블 전자 장치의 블록도이다. 도 10을 참조하면, 일 실시예에 따른 웨어러블 전자 장치(1000)(예: 도 1의 전자 장치(101), 도 5의 전자 장치(500))는 Rx 센서(1011)(예: 도 4의 Rx 센서(410), 도 5의 Rx 센서(511), 도 6의 Rx 센서(600)) 및 Tx 광원(1013)(예: 도 5의 Tx 광원(513))을 포함하는 라이다 시스템(1010)(예: 도 4의 라이다 시스템(400), 도 5의 라이다 시스템(510)), 프로세서(1030)(예: 도 1의 프로세서(120), 도 5의 프로세서(530)), 디스플레이 장치(1050)(예: 도 1의 디스플레이 모듈(160)), 및 메모리(1070)(예: 도 5의 메모리(570))를 포함할 수 있다. 또는 웨어러블 전자 장치(1000)는 선택적으로 카메라(1090)(예: 도 1의 카메라 모듈(180), 도 5의 카메라(550))를 더 포함할 수도 있다. 라이다 시스템(1010), 프로세서(1030), 디스플레이 장치(1050) 및 메모리(1070)는 통신 버스(1005)를 통해 서로 연결될 수 있다.
Rx 센서(1011)는 복수의 영상 프레임들을 포함하는 영상 정보를 감지하는 이미지 픽셀들(예: 도 4의 이미지 픽셀들(411), 도 6의 이미지 픽셀들(610)) 내에 산재된 오토포커스 픽셀들(예: 도 4의 오토포커스 픽셀들(413), 도 6의 오토포커스 픽셀들(620,630), 도 7의 오토포커스 픽셀들(707,708))을 포함할 수 있다.
Tx 광원(1013)는 펄스 레이저를 출력할 수 있다.
프로세서(1030)는 Tx 광원(1030)의 구동 전에 Rx 센서(1011)에 포함된 오토포커스 픽셀들(620,630)을 이용하여 피사체와의 거리를 산출할 수 있다. 프로세서(1030)는 피사체와의 거리에 기초하여 Tx 광원(1013)의 송출 전력을 적응적으로 결정할 수 있다. 프로세서(1030)는 Tx 광원(1013)이 송출 전력에 따라 펄스 레이저를 출력하도록 제어할 수 있다. 프로세서(1030)는 영상 정보 및 피사체와의 거리에 기초하여 가상의 컨텐츠를 생성할 수 있다.
디스플레이 장치(1050)는 프로세서(1030)가 생성한 가상의 컨텐츠를 표시할 수 있다.
메모리(1070)는 프로세서(1030)가 산출한 피사체와의 거리 및/또는 프로세서(1030)가 적응적으로 결정한 Tx 광원(1013)의 송출 전력을 저장할 수 있다. 또한, 메모리(1070)는 프로세서(1030)가 생성한 가상의 컨텐츠를 저장할 수 있다.
카메라(1090)는 예를 들어, 오토포커싱 기능을 포함하는 카메라일 수 있다. 전자 장치(1000)가 카메라(1090)를 포함하는 경우, 프로세서(1030)는 카메라(1090)의 오토포커싱 기능을 이용하여 획득한 피사체와의 초점이 맞는 거리 정보를 이용하여 Tx 광원(1013)의 송출 전력을 적응적으로 결정할 수 있다. 프로세서(1030)는 Tx 광원(1013)이 적응적으로 결정된 송출 전력에 따라 펄스 레이저를 출력하도록 제어할 수 있다.
도 11는 일 실시예에 따른 전자 장치의 제어 방법을 나타낸 흐름도이다. 이하 실시예에서 각 동작들은 순차적으로 수행될 수도 있으나, 반드시 순차적으로 수행되는 것은 아니다. 예를 들어, 각 동작들의 순서가 변경될 수도 있으며, 적어도 두 동작들이 병렬적으로 수행될 수도 있다.
도 11를 참조하면, 일 실시예에 따른 Rx 센서 및 Tx 광원을 포함하는 전자 장치(예: 도 1의 전자 장치(101), 도 5의 전자 장치(500), 도 10의 웨어러블 전자 장치(1000))의 제어 동작이 도시된다.
동작 1110에서, 전자 장치(500)는 Tx 광원(예: 도 5의 Tx 광원(513), 도 10의 Tx 광원(1013))의 구동 전에 Rx 센서(예: 도 5의 Rx 센서(511), 도 6의 Rx 센서(600), 도 10의 Rx 센서(1011))에 포함된 오토포커스 픽셀들(예: 도 4의 오토포커스 픽셀들(413), 도 6의 오토포커스 픽셀들(620, 630), 도 7의 오토포커스 픽셀들(707, 708))을 이용하여 피사체와의 거리를 산출할 수 있다. 전자 장치(500)는 피사체를 촬영한 오토포커스 픽셀들(620, 630)에 대응하는 오토포커스 영상들 간의 시차를 기초로, 피사체와의 거리를 산출할 수 있다. 전자 장치(500)는 오토포커스 픽셀들(620, 630)을 이용하여 피사체가 포커싱되는지 여부를 결정하고, 피사체가 포커싱되는 경우, 포커싱한 피사체와의 거리를 산출할 수 있다. 예를 들어, 피사체가 포커싱되지 않는 경우, 전자 장치(500)는 Tx 광원(513)은 구동하지 않고, 오토포커스 픽셀들(620, 630)을 구동하여 주변을 스캐닝할 수 있다. 전자 장치(500)는 인식하고자 하는 피사체의 부재 시에 Rx 센서(511)의 오토포커스 픽셀들(620, 630)은 구동하고, Tx 광원(513)은 구동하지 않음으로써 고전력이 소모되는 Tx 광원(513)의 전력 효율을 향상시킬 수 있다.
전자 장치(500)는 예를 들어, 한 장의 영상으로 디포커스 양(위상차) 및 방향을 검출하여 시차가 서로 다른 오토포커스 영상들(예: 도 6의 오토포커스 영상들(625,635))로부터 피사체와 전자 장치(500) 간의 거리를 산출할 수 있다. 전자 장치(500)는 예를 들어, 오토포커스 영상들(625,635)에 대응하는 위상들 간의 상관 연산에 의해 오토포커스 영상들(625,635)에 대응하는 위상들 간의 위상차를 산출할 수 있다. 전자 장치(500)는 위상차에 기초하여 피사체와의 거리를 산출할 수 있다.
실시예에 따라서, 전자 장치(500)는 오토포커싱 기능을 포함하는 카메라 (예: 도 1의 카메라 모듈(180), 도 5의 카메라(550), 도 10의 카메라(1090))를 더 포함할 수 있다. 이 경우, 전자 장치(500)는 카메라(550)의 오토포커싱 기능을 이용하여 획득한 피사체와의 초점이 맞는 거리 정보를 획득할 수 있다.
동작 1120에서, 전자 장치(500)는 동작 1110에서 산출한 피사체와의 거리에 기초하여 Tx 광원(513)의 송출 전력을 적응적으로 결정할 수 있다. 동작 1120에서, 예를 들어, 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 전자 장치(500)는 Tx 광원(513)의 송출 전력을 제1 전력으로 결정할 수 있다. 피사체와의 거리가 제1 거리보다 멀고, 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 전자 장치(500)는 Tx 광원(513)의 송출 전력을 제1 전력보다 큰 제2 전력으로 결정할 수 있다. 또는 피사체와의 거리가 제2 거리를 초과하는 경우, 전자 장치(500)는 Tx 광원(513)의 송출 전력을 제2 전력보다 큰 제3 전력으로 결정할 수 있다. 일 실시예에서는 피사체와의 거리에 기초하여 Tx 광원(513)의 송출 전력을 3단계로 적응적으로 결정하는 방법을 설명하였으나 반드시 이에 한정되는 것은 아니며, 2단계 또는 5단계와 같이 다양한 단계로 결정될 수도 있다.
전술한 바와 같이 전자 장치(500)는 피사체가 근거리에 있는 경우, Tx 광원(513)의 송출 전력을 낮춤으로서 전력 효율을 증대시킬 수 있다. 또한, 전자 장치(500)는 피사체가 원거리에 있는 경우, Tx 광원(513)의 송출 전력을 높임으로써 전자 장치(500) 또는 라이다 시스템(예: 도 4의 라이다 시스템(400), 도 5의 라이다 시스템(510))의 커버리지(coverage)를 증대시킬 수 있다.
동작 1130에서, 전자 장치(500)는 Tx 광원(513)이 동작 1120에서 결정된 송출 전력에 따라 펄스 레이저를 출력하도록 제어할 수 있다.
일 실시예에 따른 전자 장치(500)는 예를 들어. 스마트 글래스를 포함하는 웨어러블 디바이스, 및 AR 기기, VR 기기, 및 MR 기기를 포함하는 헤드 마운티드 디바이스 중 어느 하나일 수 있으며, 반드시 이에 한정되지는 않는다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
일 실시예에 따르면, 전자 장치(101, 500, 1000)는 영상 정보를 감지하는 이미지 픽셀들(411, 610) 내에 산재된 오토포커스 픽셀들(auto pixels) (413,620,630,707,708)을 포함하는 Rx 센서(410,511,600,1011)와 펄스 레이저를 출력하는 Tx 광원(430,513,1013)을 포함하는 라이다 시스템(400,510), 및 상기 Tx 광원(430,513,1013)의 구동 전에, 상기 Rx 센서(410,511,600,1011)에 포함된 오토포커스 픽셀들(413,620,630,707,708)을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원(430,513,1013)이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어하는 프로세서(120.530,1030)를 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치(101, 500, 1000)는 오토포커싱 기능을 포함하는 카메라(180,550,1090)를 더 포함하고, 상기 프로세서(120.530,1030)는 상기 카메라(180,550,1090)의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 이용하여 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원(430,513,1013)이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어할 수 있다.
일 실시예에 따르면, 상기 프로세서(120.530,1030)는 상기 오토포커스 픽셀들(413,620,630,707,708)을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하고, 상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출할 수 있다.
일 실시예에 따르면, 상기 프로세서(120.530,1030)는 상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원(430,513,1013)은 구동하지 않고, 상기 오토포커스 픽셀들(413,620,630,707,708)을 구동하여 주변을 스캐닝할 수 있다.
일 실시예에 따르면, 상기 프로세서(120.530,1030)는 상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 제1 전력으로 조절하고, 상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 조절하며, 상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 조절할 수 있다.
일 실시예에 따르면, 상기 전자 장치(101,500,1000)는 스마트 글래스를 포함하는 웨어러블 디바이스, 및 AR 기기, VR 기기, 및 MR 기기를 포함하는 헤드 마운티드 디바이스 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 웨어러블 전자 장치(101,500,1000)는 복수의 영상 프레임들을 포함하는 영상 정보를 감지하는 이미지 픽셀들(411, 610) 내에 산재된 오토포커스 픽셀들(413,620,630,707,708)을 포함하는 Rx 센서(410,511,600,1011), 펄스 레이저를 출력하는 Tx 광원(430,513,1013), 상기 Tx 광원(430,513,1013)의 구동 전에 상기 Rx 센서(410,511,600,1011)에 포함된 상기 오토포커스 픽셀들(413,620,630,707,708)을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원(430,513,1013)이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하며, 상기 영상 정보 및 상기 피사체와의 거리에 기초하여 가상의 컨텐츠를 생성하는 프로세서(120,530,1030), 및 상기 가상의 컨텐츠를 표시하는 디스플레이(160,1050)를 포함할 수 있다.
상기 웨어러블 전자 장치(101,500,1000)는 오토포커싱 기능을 포함하는 카메라(180,550,1090)를 더 포함하고, 상기 프로세서(120,530,1030)는 상기 카메라(180,550,1090)의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 이용하여 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원(430,513,1013)이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어할 수 있다.
상기 프로세서(120,530,1030)는 상기 오토포커스 픽셀들(413,620,630,707,708)을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하고, 상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출할 수 있다.
상기 프로세서(120,530,1030)는 상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원(430,513,1013)은 구동하지 않고, 상기 오토포커스 픽셀들(413,620,630,707,708)을 구동하여 주변을 스캐닝할 수 있다.
상기 프로세서(120,530,1030)는 상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 제1 전력으로 조절하고, 상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 조절하며, 상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 조절할 수 있다.
상기 웨어러블 전자 장치는 AR 기기, VR 기기, 및 MR 기기를 포함하는 헤드 마운티드 디바이스 및 스마트 글래스 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 라이다 시스템(400,510)은 펄스 레이저를 출력하는 Tx 광원(430,513,1013), 및 상기 펄스 레이저가 피사체에 반사된 펄스 신호들을 수신하는 Rx 센서(410,511,600,1011)를 포함하고, 상기 Rx 센서(410,511,600,1011)는 영상 정보를 감지하는 이미지 픽셀들(411, 610) 내에 산재된 오토포커스 영상들(625,635)을 획득하는 오토포커스 픽셀들(413,620,630,707,708)을 포함하고, 상기 오토포커스 영상들(625,635) 간의 위상차는 상기 피사체와의 거리를 산출하는데 이용될 수 있다.
일 실시예에 따르면, Rx 센서(410,511,600,1011) 및 Tx 광원(430,513,1013)을 포함하는 전자 장치(101,500,1000)의 제어 방법은 상기 Tx 광원(430,513,1013)의 구동 전에 상기 Rx 센서(410,511,600,1011)에 포함된 오토포커스 픽셀들(413,620, 630,707,708)을 이용하여 피사체와의 거리를 산출하는 동작 1110, 상기 피사체와의 거리에 기초하여 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하는 동작 1120, 및 상기 Tx 광원(430,513,1013)이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하는 동작 1130을 포함할 수 있다.
일 실시예에 따르면, 상기 피사체와의 거리를 산출하는 동작은 상기 오토포커스 영상들(625,635) 간의 위상차가 0이 되도록 하는 거리를 산출하는 동작, 및 상기 두 오토포커스 영상들(625,635)에 대응하는 위상들 간의 곱이 최대가 되도록 하는 거리를 산출하는 동작 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치(101,500,1000)는 오토포커싱 기능을 포함하는 카메라(180,550,1090)를 더 포함하고, 상기 피사체와의 거리를 산출하는 동작은 상기 카메라(180,550,1090)의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 획득하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 피사체와의 거리를 산출하는 동작은 상기 오토포커스 픽셀들(413,620,630,707,708)을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하는 동작, 및 상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출하는 동작을 포함할 수 있다.
일 실시예에 따르면, 전자 장치(101,500,1000)의 제어 방법은 상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원(430,513,1013)은 구동하지 않고, 상기 오토포커스 픽셀들(413,620,630,707,708)을 구동하여 주변을 스캐닝하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 Tx 광원(430,513,1013)의 송출 전력을 적응적으로 결정하는 동작은 상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 제1 전력으로 결정하는 동작, 상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 결정하는 동작, 및 상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원(430,513,1013)의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 결정하는 동작 중 적어도 하나를 포함할 수 있다.

Claims (20)

  1. 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들(phase auto pixels)을 포함하는 Rx 센서와 펄스 레이저를 출력하는 Tx 광원을 포함하는 라이다 시스템; 및
    상기 Tx 광원의 구동 전에, 상기 Rx 센서에 포함된 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어하는 프로세서
    를 포함하는, 전자 장치.
  2. 제1항에 있어서,
    상기 전자 장치는
    오토포커싱 기능을 포함하는 카메라를 더 포함하고,
    상기 프로세서는
    상기 카메라의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 이용하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어하는, 전자 장치.
  3. 제1항에 있어서,
    상기 프로세서는
    상기 오토포커스 픽셀들을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하고, 상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출하는, 전자 장치.
  4. 제3항에 있어서,
    상기 프로세서는
    상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원은 구동하지 않고, 상기 오토포커스 픽셀들을 구동하여 주변을 스캐닝하는, 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는
    상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 제1 전력으로 조절하고,
    상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 조절하며,
    상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 조절하는,
    전자 장치.
  6. 제1항에 있어서,
    상기 전자 장치는
    스마트 글래스를 포함하는 웨어러블 디바이스; 및
    AR(augmented reality) 기기, VR(virtual reality) 기기, 및 MR(mixed reality) 기기를 포함하는 헤드 마운티드 디바이스
    중 적어도 하나를 포함하는, 전자 장치.
  7. 웨어러블 전자 장치에 있어서,
    복수의 영상 프레임들을 포함하는 영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 픽셀들을 포함하는 Rx 센서;
    펄스 레이저를 출력하는 Tx 광원;
    상기 Tx 광원의 구동 전에 상기 Rx 센서에 포함된 상기 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하고, 상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하며, 상기 영상 정보 및 상기 피사체와의 거리에 기초하여 가상의 컨텐츠를 생성하는 프로세서; 및
    상기 가상의 컨텐츠를 표시하는 디스플레이
    를 포함하는, 웨어러블 전자 장치.
  8. 제7항에 있어서,
    상기 웨어러블 전자 장치는
    오토포커싱 기능을 포함하는 카메라를 더 포함하고,
    상기 프로세서는
    상기 카메라의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 이용하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하며, 상기 Tx 광원이 상기 송출 전력에 따라 상기 펄스 레이저를 출력하도록 제어하는, 웨어러블 전자 장치.
  9. 제7항에 있어서,
    상기 프로세서는
    상기 오토포커스 픽셀들을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하고, 상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출하는, 웨어러블 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는
    상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원은 구동하지 않고, 상기 오토포커스 픽셀들을 구동하여 주변을 스캐닝하는, 웨어러블 전자 장치.
  11. 제7항에 있어서,
    상기 프로세서는
    상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 제1 전력으로 조절하고,
    상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 조절하며,
    상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 조절하는,
    웨어러블 전자 장치.
  12. 제7항에 있어서,
    상기 웨어러블 전자 장치는
    AR 기기, VR 기기, 및 MR 기기를 포함하는 헤드 마운티드 디바이스 및 스마트 글래스 중 적어도 하나를 포함하는, 웨어러블 전자 장치.
  13. 펄스 레이저를 출력하는 Tx 광원; 및
    상기 펄스 레이저가 피사체에 반사된 펄스 신호들을 수신하는 Rx 센서
    를 포함하고,
    상기 Rx 센서는
    영상 정보를 감지하는 이미지 픽셀들 내에 산재된 오토포커스 영상들을 획득하는 오토포커스 픽셀들을 포함하고,
    상기 오토포커스 영상들 간의 위상차는 상기 피사체와의 거리를 산출하는데 이용되는, 라이다 시스템.
  14. Rx 센서 및 Tx 광원을 포함하는 전자 장치의 제어 방법에 있어서,
    상기 Tx 광원의 구동 전에 상기 Rx 센서에 포함된 오토포커스 픽셀들을 이용하여 피사체와의 거리를 산출하는 동작;
    상기 피사체와의 거리에 기초하여 상기 Tx 광원의 송출 전력을 적응적으로 결정하는 동작; 및
    상기 Tx 광원이 상기 송출 전력에 따라 펄스 레이저를 출력하도록 제어하는 동작
    을 포함하는, 전자 장치의 제어 방법.
  15. 제14항에 있어서,
    상기 피사체와의 거리를 산출하는 동작은
    상기 오토포커스 영상들 간의 위상차가 0이 되도록 하는 거리를 산출하는 동작; 및
    상기 오토포커스 영상들에 대응하는 위상들 간의 곱이 최대가 되도록 하는 거리를 산출하는 동작
    중 적어도 하나를 포함하는, 전자 장치의 제어 방법.
  16. 제14항에 있어서,
    상기 전자 장치는
    오토포커싱 기능을 포함하는 카메라를 더 포함하고,
    상기 피사체와의 거리를 산출하는 동작은
    상기 카메라의 오토포커싱 기능을 이용하여 획득한 상기 피사체와의 초점이 맞는 거리 정보를 획득하는 동작
    을 포함하는, 전자 장치의 제어 방법.
  17. 제14항에 있어서,
    상기 피사체와의 거리를 산출하는 동작은
    상기 오토포커스 픽셀들을 이용하여 상기 피사체가 포커싱되는지 여부를 결정하는 동작; 및
    상기 피사체가 포커싱되는 경우, 상기 포커싱한 피사체와의 거리를 산출하는 동작
    을 포함하는, 전자 장치의 제어 방법.
  18. 제14항에 있어서,
    상기 피사체가 포커싱되지 않는 경우, 상기 Tx 광원은 구동하지 않고, 상기 오토포커스 픽셀들을 구동하여 주변을 스캐닝하는 동작
    을 더 포함하는, 전자 장치의 제어 방법.
  19. 제14항에 있어서,
    상기 Tx 광원의 송출 전력을 적응적으로 결정하는 동작은
    상기 피사체와의 거리가 제1 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 제1 전력으로 결정하는 동작;
    상기 피사체와의 거리가 상기 제1 거리보다 멀고, 상기 제1 거리보다 먼 제2 거리와 같거나 더 가까운 경우, 상기 Tx 광원의 송출 전력을 상기 제1 전력보다 큰 제2 전력으로 결정하는 동작; 및
    상기 피사체와의 거리가 상기 제2 거리를 초과하는 경우, 상기 Tx 광원의 송출 전력을 상기 제2 전력보다 큰 제3 전력으로 결정하는 동작
    중 적어도 하나를 포함하는, 전자 장치의 제어 방법.
  20. 하드웨어와 결합되어 제14항 내지 제19항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020210142940A 2021-10-25 2021-10-25 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법 KR20230058992A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020210142940A KR20230058992A (ko) 2021-10-25 2021-10-25 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법
PCT/KR2022/015781 WO2023075255A1 (ko) 2021-10-25 2022-10-18 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법
EP22887451.7A EP4390450A1 (en) 2021-10-25 2022-10-18 Electronic apparatus including lidar system and method for controlling electronic apparatus
CN202280072067.9A CN118176435A (zh) 2021-10-25 2022-10-18 包括lidar系统的电子装置以及控制电子装置的方法
US18/094,634 US20230168379A1 (en) 2021-10-25 2023-01-09 Electronic device including lidar system, and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210142940A KR20230058992A (ko) 2021-10-25 2021-10-25 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법

Publications (1)

Publication Number Publication Date
KR20230058992A true KR20230058992A (ko) 2023-05-03

Family

ID=86158167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210142940A KR20230058992A (ko) 2021-10-25 2021-10-25 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법

Country Status (5)

Country Link
US (1) US20230168379A1 (ko)
EP (1) EP4390450A1 (ko)
KR (1) KR20230058992A (ko)
CN (1) CN118176435A (ko)
WO (1) WO2023075255A1 (ko)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102433291B1 (ko) * 2014-07-31 2022-08-17 삼성전자주식회사 웨어러블 글래스 및 웨어러블 글래스의 컨텐트 제공 방법
JP7021885B2 (ja) * 2017-09-11 2022-02-17 株式会社日立エルジーデータストレージ 距離測定装置
KR20200117460A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 전자 장치 및 그의 발열 제어 방법
KR102487512B1 (ko) 2020-05-19 2023-01-10 서울대학교 산학협력단 신축성 겹눈 구조 모사 렌즈 및 그 제조 방법

Also Published As

Publication number Publication date
US20230168379A1 (en) 2023-06-01
EP4390450A1 (en) 2024-06-26
CN118176435A (zh) 2024-06-11
WO2023075255A1 (ko) 2023-05-04

Similar Documents

Publication Publication Date Title
KR20220006753A (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20220067128A (ko) 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
CN113922885A (zh) 相位调制器和包括相位调制器的相位调制器阵列
US20220050354A1 (en) Optical modulator and electronic apparatus including the same
KR20220053214A (ko) 줌 기능을 지원하는 전자 장치 및 방법
KR20230058992A (ko) 라이다 시스템을 포함하는 전자 장치 및 그 전자 장치의 제어 방법
KR20220151932A (ko) 전자 장치 및 전자 장치의 동작 방법
KR20230033994A (ko) 복수의 카메라를 포함하는 전자 장치 및 그 동작 방법
KR20220099789A (ko) 카메라 모듈을 포함하는 전자 장치 및 그 전자 장치의 동작 방법
KR20230001760A (ko) 이미지 안정화 방법 및 이를 위한 전자 장치
KR20220007004A (ko) 위상 변조기 및 이를 포함하는 위상 변조기 어레이
US20230386061A1 (en) Electronic device and method for improving far-field performance of camera
KR20210154594A (ko) 초점 조절 기능을 포함하는 전자 장치 및 방법
US20230396885A1 (en) Electronic device including camera module and electronic device operating method
US20230131778A1 (en) Metaoptics and electronics apparatuses including the same
KR20240020854A (ko) 깊이 맵을 획득하기 위한 전자 장치 및 방법
KR20220127967A (ko) 사용자 인터페이스를 제공하기 위한 방법, 장치 및 저장 매체
KR20240079123A (ko) 이미지의 뷰 영역을 결정하는 전자 장치 및 그 동작 방법
KR20230151857A (ko) 렌즈형 악세사리 착용에 따른 카메라 사용을 위한 전자 장치 및 방법
KR20220101998A (ko) 자동 초점 조절이 가능한 전자 장치 및 그 동작 방법
KR20240120587A (ko) 듀얼 픽셀 이미지 센서를 포함하는 카메라를 이용한 뎁스 맵 획득 방법 및 이를 지원하는 전자 장치
KR20230057902A (ko) 메타 광학 소자 및 이를 포함하는 전자 장치
KR20220132889A (ko) 복수의 카메라들을 포함하는 전자 장치
KR20240116320A (ko) 레이저 센서를 이용하여 획득한 신뢰도를 나타내는 데이터에 기반하여 렌즈 어셈블리의 위치를 조절하기 위한 전자 장치, 방법, 및 컴퓨터 판독 가능 저장 매체
KR20240053491A (ko) 진동을 제공하는 방법 및 이를 지원하는 웨어러블 전자 장치