KR20210054920A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20210054920A
KR20210054920A KR1020190141199A KR20190141199A KR20210054920A KR 20210054920 A KR20210054920 A KR 20210054920A KR 1020190141199 A KR1020190141199 A KR 1020190141199A KR 20190141199 A KR20190141199 A KR 20190141199A KR 20210054920 A KR20210054920 A KR 20210054920A
Authority
KR
South Korea
Prior art keywords
light
pixels
reflected light
reflected
sensor
Prior art date
Application number
KR1020190141199A
Other languages
English (en)
Inventor
황보민수
홍현석
문보석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190141199A priority Critical patent/KR20210054920A/ko
Priority to CN202080076818.5A priority patent/CN114641703A/zh
Priority to US17/069,316 priority patent/US20210132225A1/en
Priority to EP20885837.3A priority patent/EP3977168A4/en
Priority to PCT/KR2020/013912 priority patent/WO2021091105A1/en
Publication of KR20210054920A publication Critical patent/KR20210054920A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 센서, 제1 광을 조사하는 제1 광원, 제1 광과 상이한 방향으로 제2 광을 조사하는 제2 광원 및 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 센서에 수신되면, 상이한 산출 방식을 이용하여 전자 장치와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치와 제2 광을 반사한 물체와의 제2 거리를 산출하는 프로세서를 포함한다.

Description

전자 장치 및 그 제어 방법 {ERECTRONIC APPARATUS AND CONTRL METHOD THEREOF}
본 개시는 전자 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 전자 장치 주변의 물체를 감지할 수 있는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달로 다양한 전자 장치가 개발되고 있다. 특히, 최근에는 사람을 대신해 운전을 수행하는 자동 주행 차량, 스스로 물품을 분류하고, 목적지까지 물품을 운반하는 자동 경로 차량(Automated Guided Vehicle) 및 가정 내 실내 공간을 스스로 주행하면서 청소를 수행하는 로봇 청소기 등의 전자 장치가 개발되고 있다.
이와 같은 전자 장치는 주행 중 물체와의 충돌을 방지하기 위해, 전자 장치 주변에 위치하는 다양한 물체를 감지할 필요가 있다. 이를 위해, 최근에는 복수의 광원을 이용하여 전자 장치 주변의 물체를 감지할 수 있는 센서(가령, 이미지 센서나 라이다 센서 등)를 탑재한 전자 장치가 개발되고 있다.
그런데, 복수의 광원 기반의 센서를 탑재한 종래의 전자 장치는 복수의 광원을 통해 복수의 광을 조사한 후, 복수의 반사광이 센서에 수신되면, 서로 다른 위치에 서로 다른 물체가 존재하는 것으로 인식하였다. 그러나, 복수의 반사광은 서로 다른 물체로부터 반사된 광이 아니라, 하나의 물체에 반사된 광이 될 수도 있다. 후자의 경우, 종래의 전자 장치는 실제로 전자 장치 주변에 하나의 물체가 존재함에도, 복수의 물체가 존재하는 것으로 인식하는 문제가 있었다.
본 개시는 상술한 문제점을 해결하기 위해 안출된 것으로서, 본 개시의 목적은 센서에 수신된 복수의 반사광이 하나의 물체의 의해 반사된 광인지 또는 복수의 물체에 의해 반사된 광인지를 식별할 수 있는 전자 장치 및 그 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는 센서, 제1 광을 조사하는 제1 광원, 상기 제1 광과 상이한 방향으로 제2 광을 조사하는 제2 광원 및 상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 상기 센서에 수신되면, 상이한 산출 방식을 이용하여 상기 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 프로세서를 포함할 수 있다.
그리고, 프로세서는, 상기 산출된 제1 및 제2 거리에 기초하여 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별할 수 있다.
여기에서, 상기 센서는, 복수의 픽셀을 포함하고, 상기 프로세서는, 상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출할 수 있다.
그리고, 상기 프로세서는, 상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별할 수 있다.
그리고, 상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분되고, 상기 프로세서는, 상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제2 영역의 픽셀들에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출할 수 있다.
여기에서, 상기 제1 광원은, 상기 전자 장치의 정면 방향으로 상기 제1 광을 조사하고, 상기 제2 광원은, 상기 정면 방향으로부터 기설정된 각도만큼 아래인 방향으로 상기 제2 광을 조사하며, 상기 제2 영역은, 상기 복수의 픽셀 중 상기 기설정된 로우의 픽셀들보다 하부에 위치하는 픽셀들을 포함할 수 있다.
그리고, 상기 프로세서는, 상기 제1 반사광을 수신한 상기 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 상기 제1 각도, 상기 센서의 설치 각도 및 상기 제1 광원에서 상기 센서까지의 거리에 제1 알고리즘을 적용하여 상기 제1 거리를 산출하고, 상기 제2 반사광을 수신한 상기 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 상기 제2 각도, 상기 센서의 설치 각도, 상기 제2 광원의 조사 각도 및 상기 제2 광원에서 상기 센서까지의 거리에 제2 알고리즘을 적용하여 상기 제2 거리를 산출할 수 있다.
그리고, 상기 프로세서는, 상기 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인 것으로 식별하고, 상기 산출된 제1 및 제2 거리 간의 차이가 상기 기설정된 값을 초과하면, 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 상이한 물체인 것으로 식별할 수 있다.
한편, 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은, 제1 광원을 통해 제1 광을 조사하고, 제2 광원을 통해 상기 제1 광과 상이한 방향으로 제2 광을 조사하는 단계 및 상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 센서에 수신되면, 상이한 산출 방식을 이용하여 상기 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 단계를 포함할 수 있다.
그리고, 본 제어 방법은 상기 산출된 제1 및 제2 거리에 기초하여 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별하는 단계를 더 포함할 수 있다.
여기에서, 상기 센서는, 복수의 픽셀을 포함하고, 상기 거리를 산출하는 단계는, 상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출할 수 있다.
그리고, 상기 반사광을 식별하는 단계는, 상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별할 수 있다.
그리고, 상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분되고, 상기 거리를 산출하는 단계는, 상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제2 영역의 픽셀들에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출할 수 있다.
여기에서, 상기 제1 광원은, 상기 전자 장치의 정면 방향으로 상기 제1 광을 조사하고, 상기 제2 광원은, 상기 정면 방향으로부터 기설정된 각도만큼 아래인 방향으로 상기 제2 광을 조사하며, 상기 제2 영역은, 상기 복수의 픽셀 중 상기 기설정된 로우의 픽셀들보다 하부에 위치하는 픽셀들을 포함할 수 있다.
그리고, 상기 거리를 산출하는 단계는, 상기 제1 반사광을 수신한 상기 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 상기 제1 각도, 상기 센서의 설치 각도 및 상기 제1 광원에서 상기 센서까지의 거리에 제1 알고리즘을 적용하여 상기 제1 거리를 산출하고, 상기 제2 반사광을 수신한 상기 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 상기 제2 각도, 상기 센서의 설치 각도, 상기 제2 광원의 조사 각도 및 상기 제2 광원에서 상기 센서까지의 거리에 제2 알고리즘을 적용하여 상기 제2 거리를 산출할 수 있다.
그리고, 상기 물체를 식별하는 단계는, 상기 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인 것으로 식별하고, 상기 산출된 제1 및 제2 거리 간의 차이가 상기 기설정된 값을 초과하면, 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 상이한 물체인 것으로 식별할 수 있다.
한편, 본 개시의 일 실시 예에 따른 센서는 복수의 픽셀, 제1 광을 조사하는 제1 광원, 상기 제1 광과 상이한 방향으로 제2 광을 조사하는 제2 광원 및 상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 상기 복수의 픽셀에 수신되면, 상이한 산출 방식을 이용하여 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 프로세서를 포함할 수 있다.
여기에서, 상기 프로세서는, 상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출할 수 있다.
그리고, 상기 프로세서는, 상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별할 수 있다.
그리고, 상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역 및 제2 영역으로 구분되고, 상기 프로세서는, 상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제1 영역에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출할 수 있다.
여기에서, 상기 제1 광원은, 상기 전자 장치의 정면 방향으로 상기 제1 광을 조사하고, 상기 제2 광원은, 상기 정면 방향으로부터 기설정된 각도만큼 아래인 방향으로 상기 제2 광을 조사하며, 상기 제1 영역은, 상기 복수의 픽셀 중 상기 기설정된 로우의 픽셀들보다 하부에 위치하는 픽셀들을 포함할 수 있다.
그리고, 상기 프로세서는, 상기 제1 반사광을 수신한 상기 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 상기 제1 각도, 상기 센서의 설치 각도 및 상기 제1 광원에서 상기 센서까지의 거리에 제1 알고리즘을 적용하여 상기 제1 거리를 산출하고, 상기 제2 반사광을 수신한 상기 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 상기 제2 각도, 상기 센서의 설치 각도, 상기 제2 광원의 조사 각도 및 상기 제2 광원에서 상기 센서까지의 거리에 제2 알고리즘을 적용하여 상기 제2 거리를 산출할 수 있다.
이상과 같은 본 개시의 다양한 실시 예에 따르면, 센서에 수신된 복수의 반사광이 하나의 물체의 의해 반사된 광인지 또는 복수의 물체에 의해 반사된 광인지를 식별할 수 있는 전자 장치 및 그 제어 방법이 제공될 수 있다.
도 1a는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이다.
도 1b는 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 도면이다.
도 1c는 본 개시의 일 실시 예에 따른 복수의 반사광을 수신한 센서를 도시한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 도면이다.
도 4a는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의해 반사광이 수신되는 경우를 도시한 도면이다.
도 4b는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의한 반사광을 수신한 센서를 도시한 도면이다.
도 4c는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의한 반사광에 기초하여 전자 장치 및 물체간의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 5a는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의해 반사광이 수신되는 경우를 도시한 도면이다.
도 5b는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의한 반사광을 수신한 센서를 도시한 도면이다.
도 5c는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의한 반사광에 기초하여 전자 장치 및 물체간의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 6a는 본 개시의 일 실시 예에 따른 제2 영역에 복수의 반사광을 수신한 센서를 도시한 도면이다.
도 6b는 본 개시의 일 실시 예에 따른 제2 광원으로 물체를 감지할 수 있는 영역에 복수의 물체가 위치하는 경우를 도시한 도면이다.
도 6c는 본 개시의 일 실시 예에 따른 제2 광원으로 물체를 감지할 수 있는 영역에 하나의 물체가 위치하는 경우를 도시한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 블록도이다.
도 8a는 본 개시의 일 실시 예에 따른 복수의 광원이 상이한 패턴의 광을 조사하는 실시 예를 설명하기 위한 도면이다.
도 8b는 본 개시의 일 실시 예에 따른 상이한 패턴의 복수의 광을 수신한 센서를 도시한 도면이다.
도 9a는 본 개시의 일 실시 예에 따른 복수의 광원이 상이한 굵기의 광을 조사하는 실시 예를 설명하기 위한 도면이다.
도 9b는 본 개시의 일 실시 예에 따른 상이한 굵기의 복수의 광을 수신한 센서를 도시한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 반사광의 굵기에 관한 정보를 이용하여, 제1 광원에 의한 반사광 및 제2 광원에 의한 반사광을 식별하는 실시 예를 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 제1 광원에 의한 반사광 및 제2 광원에 의한 반사광을 주기에 따라 식별하는 실시 예를 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 13은 본 개시의 일 실시 예에 따른 센서의 제어 방법을 설명하기 위한 흐름도이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 상세 블록도이다.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
또한, 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.
나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 개시의 실시 예를 상세하게 설명하지만, 본 개시가 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 개시를 상세히 설명한다.
도 1a는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 도면이고, 도 1b는 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 이동 가능한 전자 장치가 될 수 있다. 일 예로, 전자 장치(100)는 사람을 대신해 운전을 수행하는 자동 주행 차량, 목적지까지 물품을 이동시킬 수 있는 자동 경로 차량(Automated Guided Vehicle) 또는 가정 내 공간을 주행하면서 청소 작업을 수행할 수 있는 로봇 청소기 중 하나가 될 수 있다. 다만, 이에 한정되는 것은 아니고, 전자 장치(100)는 건물 내 공간을 주행하면서 공기 정화 작업을 수행할 수 있는 로봇, 가정 내 공간을 주행하며 의류 정리, 설거지 등의 작업을 수행할 수 있는 가사 지원형 로봇 또는 빌딩 내 공간을 주행하며 경비를 수행할 수 있는 경비형 로봇 등과 같은 다양한 전자 장치로 구현될 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 복수의 광원을 통해 복수의 광을 조사할 수 있다. 여기에서, 각 광원에 의해 조사되는 광은 예를 들어 부채꼴 형태의 평면 광이 될 수 있으나 반드시 이에 한정되는 것은 아니고, 다양한 형태가 될 수 있다.
도 1a를 참조하면, 전자 장치(100)는 제1 광원(110)을 통해 제1 광(111)을 조사하고, 제2 광원(120)을 통해 제2 광(121)을 조사할 수 있다. 구체적으로, 제1 광원(110)은 전자 장치(100)의 정면 방향으로 제1 광(111)을 조사하고, 제2 광원(120)은 전자 장치(100)의 정면 방향으로부터 기설정된 각도만큼 아래 방향으로 제2 광(121)을 조사할 수 있다. 일 예로, 제2 광원(120)은 정면 방향으로부터 30도만큼 아래 방향으로 제2 광을 조사할 수 있다.
이와 같은 제2 광원(120)은 도 1a에 도시된 바와 같이, 제1 광원(110)의 하부에 위치할 수 있다. 다만, 이는 일 실시 예일 뿐, 제1 광원(110) 및 제2 광원(120)은 동일한 높이에서 좌우로 배치될 수도 있다.
한편, 도 1a에서는 두 개의 광원을 도시하였으나, 이는 일 실시 예일 뿐 광원의 개수가 이제 제한되는 것은 아니다. 실시 예에 따라, 전자 장치(100)는 세 개 이상의 광원을 포함할 수도 있다. 또한, 전자 장치(100)는 하나의 광원을 포함할 수도 있다. 이 경우, 전자 장치(100)는 광원에 포함된 스플릿터 (Splitter)를 통해 2개 이상의 광을 조사할 수 있다. 일 예로, 스플릿터에 의해 조사되는 광이 2개인 경우, 2개의 광 중 제1 광은 전자 장치(100)의 정면 방향으로 조사될 수 있고, 제2 광은 전자 장치(100)의 정면 방향으로부터 기설정된 각도만큼 아래 방향으로 조사될 수 있다.
이하에서는, 설명의 편의를 위해 전자 장치(100)는 두 개의 광원을 포함하는 것으로 상정하여 설명한다.
제1 광원(110)에 의해 조사된 제1 광(111) 및 제2 광원(120)에 의해 조사된 제2 광(121)이 물체에 의해 반사되는 경우, 전자 장치(100)의 센서(130)는 제1 반사광 및 제2 반사광을 수신할 수 있다. 여기에서, 제1 반사광은 제1 광이 물체에 의해 반사된 광이고, 제2 반사광은 제2 광이 물체에 의해 반사된 광이 될 수 있다. 예를 들어, 도 1a를 참조하면, 센서(130)는 제1 광(111)이 제1 물체(10)에 의해 반사되는 경우, 제1 반사광(112)을 수신할 수 있고, 제2 광(121)이 제2 물체(20)에 의해 반사되는 경우, 제2 반사광(122)을 수신할 수 있다. 한편, 도 1a에서는 설명의 편의를 위해, 광원에 의해 조사되는 광은 실선 형태로 도시하고 물체에 의해 반사되는 반사광은 점선 형태로 도시하였으나, 반사광의 형태는 광의 형태에 따른다고 볼 것이다.
이와 같은 센서(130)는 복수의 픽셀을 포함하는 이미지 센서로 구현될 수 있다. 구체적으로, 도 1b를 참조하면, 센서(130)는 복수의 픽셀을 포함하는 이미지 센서로 구현될 수 있다. 여기에서, 복수의 픽셀은 매트릭스 형태로 배열될 수 있고, 복수의 픽셀의 가로 및 세로의 비율은 도 1b에 도시된 바와 같이, 2:1이 될 수 있으나, 반드시 이에 제한되는 것은 아니다.
도 1c는 본 개시의 일 실시 예에 따른 복수의 반사광을 수신한 센서를 도시한 도면이다.
도 1a에 도시된 바와 같이 제1 광(111)이 제1 물체(10)에 의해 반사되고, 제2 광(121)이 제2 물체(20)에 의해 반사되는 경우, 센서(130)에는 도 1c에 도시된 같이, 제1 반사광(121) 및 제2 반사광(122)이 수신될 수 있다. 이 경우, 전자 장치(100)는 센서(130)에 포함된 복수의 픽셀 중에서, 제1 반사광(121)이 수신된 픽셀들의 위치에 기초하여, 제1 광원(110)으로부터 제1 물체(10)까지의 거리를 산출하고, 제2 반사광(122)이 수신된 픽셀들의 위치에 기초하여 제2 광원(120)으로부터 제2 물체(20)까지의 거리를 산출할 수 있다. 이하, 도 2를 참조하여 이에 대해 상세히 설명한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록도이고, 도 3은 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 도면이다.
도 2를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 제1 광원(110), 제2 광원(120), 센서(130) 및 프로세서(140)를 포함한다.
제1 광원(110)은 제1 광(111)을 조사할 수 있다. 구체적으로, 제1 광원(110)은 전자 장치(100)의 정면 방향으로 제1 광을 조사할 수 있다. 후술하겠지만, 프로세서(140)는 제1 광에 의한 제1 반사광에 기초하여, 전자 장치(100)로부터 원거리에 위치하는 물체 및/또는 근거리에 위치하는 물체를 식별할 수 있다.
제2 광원(120)은 제1 광과는 상이한 방향으로 제2 광을 조사할 수 있다. 구체적으로, 제1 광원(110)은 전자 장치(100)의 정면 방향으로 제1 광을 조사하고, 제2 광원(120)은 전자 장치(100)의 정면 방향으로부터 기설정된 각도만큼 아래 방향으로 제2 광을 조사할 수 있다. 일 예로, 제2 광원(120)은 정면 방향으로부터 30도만큼 아래 방향으로 제2 광을 조사할 수 있으나, 반드시 이에 한정되는 것은 아니다. 후술하겠지만, 프로세서(140)는 제2 광에 의한 제2 반사광에 기초하여, 전자 장치(100)로부터 근거리에 위치하는 물체를 식별할 수 있다.
이를 위해, 제1 광원(110) 및 제2 광원(120)은 레이저 다이오드, 라인 레이저 등 광을 조사할 수 있는 다양한 광원으로 구현될 수 있다.
센서(130)는 제1 광원(110)의 상부에 위치할 수 있다. 그리고, 센서(130)는 물체를 향해 조사된 광의 반사광을 수신할 수 있다. 구체적으로, 센서(130)는 제1 광원(110)에 의해 조사된 제1 광이 물체에 의해 반사되는 경우, 제1 반사광을 수신할 수 있고, 제2 광원(120)에 의해 조사된 제2 광이 물체에 의해 반사되는 경우, 제2 반사광을 수신할 수 있다.
센서(130)는 상술한 바와 같이, 매트릭스 형태로 배열된 복수의 픽셀을 포함하는 이미지 센서로 구현될 수 있다. 여기에서, 복수의 픽셀은 M x M 또는 M x N (여기에서, M, N은 정수) 형태로 배열될 수 있다. 일 예로, 도 3을 참조하면, 센서(130)는 200개의 픽셀로 구성되고, 200개의 픽셀은 10개의 로우(row) 및 20개의 컬럼(column)으로 배열될 수 있으나, 반드시 이에 한정되는 것은 아니다. 다만, 이하에서는, 설명의 편의를 위해 센서(130)는 도 3에 도시된 바와 같이, 10개의 로우 및 20개의 컬럼으로 배열된 것으로 상정하여 설명한다.
센서(130)는 반사광이 수신되면, 복수의 픽셀 중에서 반사광을 수신한 픽셀을 감지할 수 있다. 구체적으로, 센서(130)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀을 반사광을 수신한 픽셀로 감지할 수 있다. 여기에서 기설정된 밝기 값은 광원에 의해 조사된 광의 밝기 값에 따라 다양하게 설정될 수 있다.
도 3을 참조하면, 센서(130)에 포함된 복수의 픽셀은 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 여기에서, 제1 영역은 전자 장치(100)로부터 원거리에 위치하는 물체와의 거리를 산출하기 위한 영역이고, 제2 영역은 전자 장치(100)로부터 근거리에 위치하는 물체와의 거리를 산출하기 위한 영역이 될 수 있다.
구체적으로, 복수의 픽셀은 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 일 예로, 기설정된 로우가 로우 3인 경우, 로우 3을 포함하는 로우 3 하부의 로우(즉, 로우 1 내지 로우 3)에 포함된 픽셀들은 제1 영역의 픽셀들로 구분되고, 로우 3의 상부의 로우(즉, 로우 4 내지 로우 10)에 포함된 픽셀들은 제2 영역의 픽셀들로 구분될 수 있다.
여기에서, 기설정된 로우는 제2 광원(120)의 광에 의한 반사광이 센서(130)에 수신될 수 있는 위치에 기초하여 결정될 수 있다. 예를 들어, 제2 광원(120)의 광에 의한 반사광이 센서(130)에 포함된 복수의 픽셀 중에서 로우 1 내지 로우 3에 포함된 픽셀들에만 수신될 수 있는 경우, 기설정된 로우는 로우 3이 될 수 있다. 한편, 제2 광원(120)의 광에 의한 반사광이 센서(130)에 수신될 수 있는 위치는 제2 광원(120)의 조사 각도, 센서(130)가 지면 방향으로 기울어진 각도 등에 기초하여 실시 예에 따라 상이할 수 있다.
프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(140)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 그리고, 프로세서(140)는 적어도 하나의 범용 프로세서(general processor), 디지털 신호 프로세서(digital signal processor), ASIC(Application specific integrated circuit), SoC(system on chip), MICOM(Microcomputer) 등으로 구현될 수 있다.
프로세서(140)는 제1 광을 조사하도록 제1 광원(110)을 제어하고, 제2 광을 조사하도록 제2 광원(120)을 제어할 수 있다. 이 경우, 제1 광원(110)에 의해 조사된 제1 광이 물체에 의해 반사되는 경우, 센서(130)는 제1 반사광을 수신할 수 있고, 제2 광원(120)에 의해 조사된 제2 광이 물체에 의해 반사되는 경우, 센서(130)는 제2 반사광을 수신할 수 있다.
프로세서(140)는 센서(130)에 포함된 복수의 픽셀 중에서 제1 반사광을 수신한 픽셀들의 위치 및 제2 반사광을 수신한 픽셀들의 위치들에 관한 정보를 센서(130)로부터 수신할 수 있다. 구체적으로, 센서(130)는 제1 및 제2 반사광이 수신되면, 센서(130)에 포함된 복수의 픽셀의 밝기를 감지할 수 있다. 그리고, 센서(130)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀들을 제1 반사광을 수신한 픽셀들 및 제2 반사광을 수신한 픽셀들로 감지하고, 제1 반사광을 수신한 픽셀들의 위치 및 제2 반사광을 수신한 픽셀들의 위치에 관한 정보를 프로세서(140)로 전송할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 로우 7의 컬럼 8 내지 12에 제1 반사광(112)이 수신되고, 로우 2의 컬럼 8 내지 12에 제2 반사광(122)이 수신되면, 센서(130)는 로우 7의 컬럼 8 내지 12에 제1 반사광(112)이 수신되었다는 정보 및 로우 2의 컬럼 8 내지 12에 제2 반사광(122)이 수신되었다는 정보를 프로세서(140)로 전송할 수 있다.
이에 따라, 프로세서(140)는 제1 반사광(112)을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다. 또한, 프로세서(140)는 제2 반사광(122)을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다. 일 예로, 프로세서(140)는 센서(130)로부터 로우 7의 컬럼 8 내지 12에 제1 반사광(112)이 수신되었다는 정보가 센서(130)로부터 수신되면, 제1 반사광(112)이 수신된 로우는 기설정된 로우인 로우 3보다 상부의 로우인 7이므로, 제1 반사광(112)은 제1 영역에 수신된 것으로 판단할 수 있다. 그리고, 프로세서(140)는 센서(130)로부터 로우 2의 컬럼 8 내지 12에 제2 반사광(122)이 수신되었다는 정보가 센서(130)로부터 수신되면, 제2 반사광(122)이 수신된 로우는 기설정된 로우인 로우 3보다 하부의 로우인 로우 2이므로, 제2 반사광(122)은 제2 영역에 수신된 것으로 판단할 수 있다.
그리고, 프로세서(140)는 제1 영역에 포함된 제1 반사광(112)은 제1 광에 의한 반사광으로 식별하고, 제2 영역에 포함된 제2 반사광(122)은 제2 광에 의한 반사광으로 식별할 수 있다. 예를 들어, 도 1a와 같이 제1 광(111)이 제1 물체(10)에 의해 반사되고, 제2 광(121)이 제2 물체(20)에 의해 반사됨에 따라, 도 3과 같이 제1 반사광(112) 및 제2 반사광(122)이 센서(130)에 수신되면, 프로세서(140)는 제1 영역에 포함된 제1 반사광(112)은 제1 광에 의한 반사광으로 식별하고, 제2 영역에 포함된 제2 반사광(122)은 제2 광에 의한 반사광으로 식별할 수 있다. 이는, 전술한 바와 같이, 제1 영역은 제2 광원(120)에 의한 반사광이 수신될 수 없는 영역이기 때문이다.
한편, 실시 예에 따라 제2 영역에 제1 및 제2 반사광이 수신될 수도 있다. 이에 대해서는, 도 6a 내지 도 6c을 참조하여 후술한다.
프로세서(140)는 제1 광(111)에 의한 제1 반사광(112)이 식별되면, 제1 알고리즘을 이용하여 제1 광원(110) 및 제1 광(111)을 반사한 제1 물체(10)까지의 거리를 산출할 수 있다. 또한, 프로세서(140)는 제2 광(121)에 의한 제2 반사광(122)이 식별되면, 제2 알고리즘을 이용하여 제2 광원(120) 및 제1 광(121)을 반사한 제2 물체(20)까지의 거리를 산출할 수 있다. 즉, 프로세서(140)는 상이한 산출 방식을 이용하여, 전자 장치(100)와 제1 광(111)을 반사한 물체와의 제1 거리 및 전자 장치(100)와 제2 광(121)을 반사한 물체와의 제2 거리를 산출할 수 있다. 이하, 설명의 편의를 위해, 센서(130)에 제1 반사광(112)만이 수신되는 경우와, 센서(130)에 제2 반사광(122)만이 수신되는 경우를 상정하여, 전자 장치(100) 및 물체와의 거리를 산출하는 방법에 대해 설명한다.
도 4a는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의해 반사광이 수신되는 경우를 도시한 도면이고, 도 4b는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의한 반사광을 수신한 센서를 도시한 도면이다. 도 4c는 본 개시의 일 실시 예에 따른 제1 광원의 광에 의한 반사광에 기초하여 전자 장치 및 물체간의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 4a에 도시된 바와 같이, 제1 광원(110)에 의해 조사된 제1 광(111)이 제1 물체(10)에 의해 반사되는 경우, 센서(130)는 제1 반사광(112)을 수신할 수 있다. 이 경우, 센서(130)는 제1 반사광(112)이 수신되면, 센서(130)에 포함된 복수의 픽셀의 밝기를 감지할 수 있다. 그리고, 센서(130)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀들을 제1 반사광(112)을 수신한 픽셀들로 감지하고, 제1 반사광(112)을 수신한 픽셀들의 위치를 프로세서(140)로 전송할 수 있다. 예를 들어, 도 4b에 도시된 바와 같이, 센서(130)는 로우 7의 컬럼 8 내지 12에 제1 반사광(112)이 수신되었다는 정보를 프로세서(140)로 전송할 수 있다.
이에 따라, 프로세서(140)는 제1 반사광(112)을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다. 일 예로, 프로세서(140)는 센서(130)로부터 로우 7의 컬럼 8 내지 12에 제1 반사광(112)이 수신되었다는 정보가 센서(130)로부터 수신되면, 제1 반사광(112)이 수신된 로우는 기설정된 로우인 로우 3보다 상부의 로우인 7이므로, 제1 반사광(112)은 제1 영역에 수신된 것으로 판단할 수 있다.
그리고, 프로세서(140)는 제1 영역에 포함된 제1 반사광(112)을 제1 광에 의한 반사광으로 식별할 수 있다. 예를 들어, 도 1a와 같이 제1 광(111)이 제1 물체(10)에 의해 반사됨에 따라, 도 4b와 같이 제1 반사광(112) 센서(130)에 수신되면, 프로세서(140)는 제1 영역에 포함된 제1 반사광(112)은 제1 광에 의한 반사광으로 식별할 수 있다. 이는, 전술한 바와 같이, 제1 영역은 제2 광원(120)에 의한 반사광이 수신될 수 없는 영역이기 때문이다.
프로세서(140)는 제1 광(111)에 의한 제1 반사광(112)이 식별되면, 제1 알고리즘을 이용하여 제1 광원(110) 및 제1 광(111)을 반사한 제1 물체(10)까지의 거리를 산출할 수 있다.
구체적으로, 프로세서(140)는 제1 반사광(112)을 수신한 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단할 수 있다. 구체적으로, 프로세서(140)는 제1 반사광(112)을 수신한 픽셀들의 로우 값에 컬럼(column)상의 픽셀 하나 당 각도를 곱한 값을 제1 각도로 판단할 수 있다. 일 예로, 도 4b에 도시된 바와 같이, 로우 7의 픽셀들에 제1 반사광(112)이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(140)는 56도를 제1 각도로 판단할 수 있다.
여기에서, 컬럼상의 픽셀 하나 당 각도는 센서(130)의 화각 범위 및 센서(130)에 포함된 복수의 픽셀을 구성하는 로우의 개수에 기초하여 결정될 수 있다. 구체적으로, 컬럼상의 픽셀 하나 당 각도는 센서(130)의 화각 범위에 복수의 픽셀을 구성하는 로우의 개수를 나눈 값이 될 수 있다. 예를 들어, 센서(130)의 화각 범위가 80도이고(예를 들어, 도 4c의 경우 센서(130)의 화각은 가상의 선 h1 및 가상의 선 h2 사이의 각도가 된다.), 센서(130)에 포함된 복수의 픽셀이 도 4b와 같이 10개의 로우로 배열된 경우, 컬럼상의 픽셀 하나당 각도는 8도가 될 수 있다. 한편, 여기에서 센서(130)의 화각 범위는 센서(130)에 포함된 렌즈의 종류 등에 따라 다양할 수 있다.
이에 따라, 여기에서 판단된 제1 각도는, 도 4c를 참조하면 제1 광(111)이 제1 물체(10)에 의해 반사된 지점(z)과 센서(130)를 연결한 선 및 센서(130)의 화각 범위 중 최소 각도에 따른 가상의 선(h1)이 이루는 각도가 될 수 있다.
이후, 프로세서(140)는 하기와 같은 수학식을 이용하여 제1 광원(110) 및 제1 광(111)을 반사한 제1 물체(10)까지의 거리를 산출할 수 있다.
y = r1 × tan(a+b)
여기에서, y는 제1 광원(110) 및 제1 물체(10)까지의 거리이고, a는 상술한 제1 각도이다. 그리고, r1은 제1 광원(110) 및 센서(130)간의 거리이고, b는 센서(130)의 설치 각도이다. 한편, 제1 광원(110) 및 센서(130)간의 거리 r1 및 센서(130)의 설치 각도 b는 전자 장치(100)에 기설정되어 있을 수 있다. 또한, 거리 r1 및 각도 b는 제품 제조 단계에서 설정될 수 있으나, 반드시 이에 한정되는 것은 아니고, 사용자 조작에 따라 다양하게 설정될 수 있다. 또한, 센서(130)의 화각 범위 중 최소 각도에 따른 가상의 선이 지면에 수직한 방향으로 센서(130)가 설치될 경우, 각도 b는 0이 될 수도 있다.
도 5a는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의해 반사광이 수신되는 경우를 도시한 도면이고, 도 5b는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의한 반사광을 수신한 센서를 도시한 도면이다. 도 5c는 본 개시의 일 실시 예에 따른 제2 광원의 광에 의한 반사광에 기초하여 전자 장치 및 물체간의 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 5a에 도시된 바와 같이, 제2 광원(120)에 의해 조사된 제2 광(121)이 제2 물체(20)에 의해 반사되는 경우, 센서(130)는 제2 반사광(122)을 수신할 수 있다. 이 경우, 센서(130)는 제2 반사광(122)이 수신되면, 센서(130)에 포함된 복수의 픽셀의 밝기를 감지할 수 있다. 그리고, 센서(130)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀들을 제2 반사광(122)을 수신한 픽셀들로 감지하고, 제2 반사광(122)을 수신한 픽셀들의 위치를 프로세서(140)로 전송할 수 있다. 예를 들어, 도 5b에 도시된 바와 같이, 센서(130)는 로우 7의 컬럼 8 내지 12에 제2 반사광(122)이 수신되었다는 정보를 프로세서(140)로 전송할 수 있다.
이에 따라, 프로세서(140)는 제2 반사광(122)을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다. 일 예로, 프로세서(140)는 센서(130)로부터 로우 2의 컬럼 8 내지 12에 제2 반사광(122)이 수신되었다는 정보가 센서(130)로부터 수신되면, 제2 반사광(122)이 수신된 로우는 기설정된 로우인 로우 3보다 하부의 로우인 2이므로, 제2 반사광(122)은 제2 영역에 수신된 것으로 판단할 수 있다.
그리고, 프로세서(140)는 제2 영역에 포함된 제2 반사광(122)을 제2 광에 의한 반사광으로 식별할 수 있다. 예를 들어, 도 1a와 같이 제2 광(121)이 제2 물체(20)에 의해 반사됨에 따라, 도 5b와 같이 제2 반사광(122) 센서(130)에 수신되면, 프로세서(140)는 제2 영역에 포함된 제2 반사광(122)은 제2 광에 의한 반사광으로 식별할 수 있다.
프로세서(140)는 제2 광(121)에 의한 제2 반사광(122)이 식별되면, 제2 알고리즘을 이용하여 제2 광원(120) 및 제2 광(121)을 반사한 제2 물체(20)까지의 거리를 산출할 수 있다.
구체적으로, 프로세서(140)는 제2 반사광(122)을 수신한 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단할 수 있다. 구체적으로, 프로세서(140)는 제2 반사광(122)을 수신한 픽셀들의 로우 값에 컬럼(column)상의 픽셀 하나 당 각도를 곱한 값을 제2 각도로 판단할 수 있다. 일 예로, 도 5b에 도시된 바와 같이, 로우 2의 픽셀들에 제2 반사광(122)이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(140)는 16도를 제2 각도로 판단할 수 있다.
여기에서 판단된 제2 각도는, 도 5c를 참조하면 제2 광(121)이 제2 물체(20)에 의해 반사된 지점(z2)과 센서(130)를 연결한 선 및 센서(130)의 화각 범위 중 최소 각도에 따른 가상의 선(h1)이 이루는 각도가 될 수 있다.
이후, 프로세서(140)는 하기와 같은 수학식을 이용하여, 제2 광원(120) 및 제2 광(121)을 반사한 제2 물체(20)까지의 거리를 산출할 수 있다.
y = r2 × tan(a+b) × tan(c) / ( tan(c) - tan(a+b))
이는, 하기와 같은 수학식 1 및 2의 연립을 통해 얻어진 될 수 있다.
수학식 1: y = (r2 + r3) × tan(a+b)
수학식 2: y = r3 × tan(c)
여기에서, y는 제2 광원(120) 및 제2 물체(20)까지의 거리이고, a는 상술한 제2 각도이다. 그리고, r2은 제2 광원(110) 및 센서(130)간의 거리이고, b는 센서(130)의 설치 각도이다. 그리고, c는 제2 광원(120)의 조사 각도이고, r3는 제2 광(121)이 제2 물체(20)에 의해 반사된 지점(z2)과 제2 광원(120)간의 수직 축상의 거리이다. 한편, 제2 광원(120) 및 센서(130)간의 거리 r2, 센서(130)의 설치 각도 b, 제2 광원(120)의 조사 각도 c는 전자 장치(100)에 기설정되어 있을 수 있다. 또한, 거리 r1, 각도 b 및 각도 c는 제품 제조 단계에서 설정될 수 있으나, 반드시 이에 한정되는 것은 아니고, 사용자 조작에 따라 다양하게 설정될 수 있다. 또한, 센서(130)의 화각 범위 중 최소 각도에 따른 가상의 선이 지면에 수직한 방향으로 센서(130)가 설치될 경우, 각도 b는 0이 될 수도 있다.
이상에서, 반사광이 센서(130)의 제1 영역에 수신되는 경우 및 센서(130)의 제2 영역에 수신되는 경우 각각에 대해, 전자 장치(100) 및 물체간의 거리를 산출하는 방법에 대해 설명하였다. 이와 같은 기술적 사상은, 도 3과 같이 복수의 반사광이 센서(130)에 수신되는 경우에도 그대로 적용될 수 있다. 즉, 프로세서(140)는 제1 영역에 수신된 제1 반사광(112)에는 제1 알고리즘을 적용하여 전자 장치(100) 및 물체간의 거리를 산출할 수 있고, 제2 영역에 수신된 제2 반사광(122)에는 제2 알고리즘을 적용하여 전자 장치(100) 및 물체간의 거리를 산출할 수 있다. 이와 같이, 영역 별로 구분하여 전자 장치(100) 및 물체간의 거리를 산출함으로서, 본 개시는 복수의 반사광이 센서(130)에 수신되는 경우에도, 전자 장치(100) 및 물체간의 거리를 정확하게 산출할 수 있다.
한편, 실시 예에 따라 제2 영역에 제1 및 제2 반사광이 수신될 수도 있다. 도 6a 내지 도 6c을 참조하여 설명한다.
도 6a는 본 개시의 일 실시 예에 따른 제2 영역에 복수의 반사광을 수신한 센서를 도시한 도면이고, 도 6b는 본 개시의 일 실시 예에 따른 제2 광원으로 물체를 감지할 수 있는 영역에 복수의 물체가 위치하는 경우를 도시한 도면이며, 도 6c는 본 개시의 일 실시 예에 따른 제2 광원으로 물체를 감지할 수 있는 영역에 하나의 물체가 위치하는 경우를 도시한 도면이다.
도 6a를 참조하면, 본 개시의 일 실시 예에 따른 센서(130)는 제2 영역에서 제1 반사광(612) 및 제2 반사광(622)을 수신할 수 있다.
이는, 도 6b에 도시된 바와 같이, 거리 d 범위 내(즉, 제2 광원(120)에서 조사된 광이 지면에 도달할 수 있는 범위 내), 제1 광원(110)에서 조사된 광이 도달할 수 있는 크기의 제1 물체(10) 및 제1 물체(10)보다 전자 장치(100)에 가까운 거리에 제2 광원(120)에서 조사된 광만이 도달할 수 있는 크기의 제2 물체(20)가 위치하는 경우 또는, 도 6c에 도시된 바와 같이, 거리 d 범위 내 제1 광원(110)에서 조사된 광 및 제2 광원(120)에서 조사된 광이 도달할 수 있는 크기의 제3 물체(30)가 위치하는 경우 중 하나가 될 수 있다.
만약, 후자의 경우임에도, 제2 영역에 반사광이 수신되었다는 이유로, 제1 반사광(612) 및 제2 반사광(622) 각각에 제2 알고리즘을 적용하여 거리를 산출한다면, 전자 장치는 서로 다른 위치에 제1 물체(10) 및 제2 물체(20)가 존재하는 것으로 인식하게 되는 결과를 초래한다. 따라서, 이와 같이, 제2 영역에 복수의 반사광이 수신되는 경우에는, 복수의 반사광이 하나의 물체에 의해 반사된 것인지 또는 복수의 물체에 의해 반사된 것인지를 구분할 필요가 있다.
이를 위해, 프로세서(140)는 제2 영역에 수신된 제1 및 제2 반사광(612, 622) 중에서, 제1 광(611)에 의한 반사광 및 제2 광(621)에 의한 반사광을 식별할 수 있다. 구체적으로, 프로세서(140)는 제1 및 제2 반사광(612, 622)을 수신한 복수의 픽셀 중에서 상대적으로 상부의 로우에 위치하는 픽셀들에 수신된 제1 반사광(612)을 제1 광(611)에 의한 반사광으로 식별하고, 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 제2 반사광(622)을 제2 광(621)에 의한 반사광으로 식별할 수 있다. 이는, 제1 광원(110)이 제2 광원(120)의 수직 방향으로 상부에 배치된 기하학적 구조에 의해, 상대적으로 상부의 로우에 위치하는 픽셀들에 제1 광(611)에 의한 반사광이 수신될 수 있고, 상대적으로 하부의 로우에 위치하는 픽셀들에 제2 광(621)에 의한 반사광이 수신될 수 있기 때문이다.
프로세서(140)는 제1 광(611)에 의한 반사광인 제1 반사광(612)에 상술한 제1 알고리즘을 적용하여 제1 거리를 산출할 수 있다. 구체적으로, 프로세서(140)는 제1 반사광(612)을 수신한 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 제1 각도, 센서(130)의 설치 각도 및 제1 광원(110)에서 센서(130)까지의 거리에 제1 알고리즘을 적용하여 제1 거리를 산출할 수 있다. 일 예로, 도 6a에 도시된 바와 같이, 로우 3의 픽셀들에 제1 반사광(612)이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(140)는 24도를 제1 각도로 판단할 수 있다.
제1 거리를 산출하기 위한 수학식은 하기와 같다.
y1 = r1 × tan(a+b)
여기에서, y1는 제1 광원(110) 및 제1 광을 반사한 물체까지의 거리인 제1 거리이고, a는 상술한 제1 각도이다. 그리고, r1은 제1 광원(110) 및 센서(130)간의 거리이고, b는 센서(130)의 설치 각도이다. 한편, 제1 광원(110) 및 센서(130)간의 거리 r1 및 센서(130)의 설치 각도 b는 전술한 바와 같이 전자 장치(100)에 기설정되어 있을 수 있다.
그리고, 프로세서(140)는 제2 광(621)에 의한 반사광인 제2 반사광(622)에 상술한 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 구체적으로, 프로세서(140)는 제2 반사광(622)을 수신한 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 제2 각도, 센서(130)의 설치 각도, 제2 광원(120)의 조사 각도 및 제2 광원(120)에서 센서(130)까지의 거리에 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 일 예로, 도 6a에 도시된 바와 같이, 로우 2의 픽셀들에 제2 반사광(622)이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(140)는 16도를 제2 각도로 판단할 수 있다.
제2 거리를 산출하기 위한 수학식은 하기와 같다.
y2 = r2 × tan(a+b) × tan(c) / ( tan(c) - tan(a+b))
여기에서, y2는 제2 광원(120) 및 제2 광을 반사한 물체까지의 거리인 제2 거리이고, a는 상술한 제2 각도이다. 그리고, r2은 제2 광원(110) 및 센서(130)간의 거리이고, b는 센서(130)의 설치 각도이다. 그리고, c는 제2 광원(120)의 조사 각도이고, r3는 제2 광(121)이 제2 물체(20)에 의해 반사된 지점과 제2 광원(120)간의 수직 축상의 거리이다. 한편, 제2 광원(120) 및 센서(130)간의 거리 r2, 센서(130)의 설치 각도 b, 제2 광원(120)의 조사 각도 c는 전자 장치(100)에 기설정되어 있을 수 있다.
한편, 프로세서(140)는 제1 반사광(612)을 수신한 픽셀들의 컬럼(column)들 및 제2 반사광(622)을 수신한 픽셀들의 컬럼들이 적어도 일부에서 일치하는 경우, 상술한 제1 및 제2 거리를 산출할 수 있다. 일 예로, 도 6a에 도시된 바와 같이, 제1 반사광(612)을 수신한 픽셀들의 컬럼들이 8 내지 12이고, 제2 반사광(622)을 수신한 픽셀들의 컬럼들이 8 내지 12인 경우와 같이, 제1 반사광(612)을 수신한 픽셀들의 컬럼들 및 제2 반사광(622)을 수신한 픽셀들의 컬럼들이 일치하는 경우, 상술한 제1 및 제2 거리를 산출할 수 있다.
만약, 반사광을 수신한 컬럼들에 일치하는 부분이 전혀 없는 경우이면, 전자 장치(100)를 기준으로 수평 방향으로 상이한 위치에서 제1 및 제2 반사광이 수신된 경우로서, 제1 및 제2 반사광 각각은 상이한 물체에 의해 반사된 것으로 볼 수 있기 때문이다. 이 경우, 프로세서(140)는 제1 및 제2 반사광 각각에 상술한 제2 알고리즘을 적용하여, 제1 광원(110) 및 제1 물체까지의 거리 및, 제2 광원(120) 및 제2 물체까지의 거리를 산출할 수 있다. 즉, 프로세서(140)는 제2 영역에 복수의 반사광이 수신되고, 제2 영역에 수신된 복수의 반사광의 컬럼들이 적어도 일부에서 일치하는 경우, 상술한 제1 알고리즘을 통해 제1 거리를 산출하고, 제2 알고리즘을 통해 제2 거리를 산출할 수 있다. 이에 따라, 불필요한 프로세서(140)의 연산을 방지할 수 있다.
프로세서(140)는 상술한 방법을 통해 산출된 제1 및 제2 거리 간의 차이에 기초하여, 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별할 수 있다. 구체적으로, 프로세서(140)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 제1 광(611)을 반사한 물체와 제2 광(621)을 반사한 물체가 동일한 물체(30)인 것으로 식별할 수 있다. 일 예로, 프로세서(140)는 산출된 제1 및 제2 거리 간의 차이가 동일하면, 도 6c와 같이 제1 광(611)을 반사한 물체와 제2 광(621)을 반사한 물체가 동일한 물체(30)인 것으로 식별할 수 있다. 그리고, 프로세서(140)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값을 초과하면, 제1 광(611)을 반사한 물체(10)와 제2 광(621)을 반사한 물체(20)가 상이한 물체인 것으로 식별할 수 있다. 일 예로, 프로세서(140)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값인 1m 이상인 것으로 판단되면, 도 6b와 같이 제1 광(611)을 반사한 물체(10)와 제2 광(621)을 반사한 물체(20)는 상이한 물체인 것으로 식별할 수 있다. 한편, 여기에서 1m는 일 실시 예일 뿐, 기설정된 값은 50cm, 2m 등 다양하게 설정될 수 있다.
이후, 프로세서(140)는 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지에 따라, 상이한 동작을 수행할 수 있다. 일 예로, 프로세서(140)는 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인 제3 물체(30)인 것으로 판단되면, 제1 거리(이는, 제2 거리와 같다)에서 제3 물체(30)를 회피하여 주행하도록 전자 장치(100)를 제어하고, 제1 광을 반사한 물체는 제1 물체(10)이고, 제2 광을 반사한 물체는 제2 물체(20)인 것으로 판단되면, 제1 거리에서는 제1 물체(10)를 회피하여 주행하도록 전자 장치(100)를 제어하고, 제2 거리에서는 제2 물체(20)를 회피하여 주행하도록 전자 장치(100)를 제어할 수 있다.
한편, 이상에서는 전자 장치(100)로부터 원거리에 위치할수록, 센서(140)의 상부에 반사광이 수신되는 것으로 설명하였으나 이는 일 실시 예일 뿐, 본 개시는 전자 장치(100)로부터 근거리에 위치할수록, 센서(140)의 상부에 반사광이 수신될 수 있도록 설계 될 수도 있다. 이 경우에도 상술한 기술적 사상과 유사한 기술적 사상이 그대로 적용될 수 있다고 볼 것이다. 또한, 이 경우는 제2 영역에 수신된 반사광 중에서 상대적으로 상부의 로우에 수신된 반사광을 제2 광에 의한 반사광으로 식별하고, 상대적으로 하부의 로우에 수신된 반사광을 제1 광에 의한 반사광으로 식별할 수 있을 것이다.
또한, 이상에서는, 제1 광원(110) 및 제2 광원(120)의 기하학적 구조에 기초하여, 제2 영역에 수신된 반사광 중에서 상대적으로 상부의 로우에 수신된 반사광을 제1 광에 의한 반사광으로 식별하는 것으로 설명하고, 상대적으로 하부의 로우에 수신된 반사광을 제2 광에 의한 반사광으로 식별하는 것으로 설명하였으나, 본 개시는 다양한 방법에 의해 제1 광에 의한 반사광 및 제2 광에 의한 반사광을 식별할 수 있다. 이는 도 8a 내지 도 11을 참조하여 후술한다.
도 7은 본 개시의 일 실시 예에 따른 센서를 설명하기 위한 블록도이다.
도 7을 참조하면, 본 개시의 일 실시 예에 따른 센서(700)는 제1 광원(710), 제2 광원(720), 이미지 센서(730) 및 프로세서(740)를 포함한다. 여기에서, 센서(700)는 상술한 전자 장치(100)에 포함될 수 있다. 그리고, 이미지 센서(730)는 복수의 픽셀을 포함할 수 있다. 또한, 도 7에는 도시하지 않았으나, 센서(700)는 반사광을 수신하기 위한 렌즈를 더 포함할 수 있다.
제1 광원(710)은 상술한 제1 광원(110)과 같은 기능을 수행할 수 있다. 즉, 제1 광원(710)은 전자 장치(100)의 정면 방향으로 제1 광을 조사할 수 있다.
제2 광원(720)은 상술한 제2 광원(120)과 같은 기능을 수행할 수 있다. 즉, 제2 광원(720)은 제1 광과 상이한 방향으로 제2 광을 조사할 수 있다. 일 예로, 제2 광원(720)은 제1 광원(710)의 하부에 위치하고, 전자 장치(100)의 정면 방향으로부터 30도만큼 아래 방향으로 제2 광을 조사할 수 있으나, 반드시 이에 한정되는 것은 아니다.
이를 위해, 제1 광원(710) 및 제2 광원(720)은 레이저 다이오드, 라인 레이저 등 광을 조사할 수 있는 다양한 광원으로 구현될 수 있다.
이미지 센서(730)는 제1 광원(710)의 상부에 위치할 수 있다. 그리고, 이미지 센서(730)는 물체를 향해 조사된 광의 반사광을 수신할 수 있다. 구체적으로, 이미지 센서(730)는 제1 광원(710)에 의해 조사된 제1 광이 물체에 의해 반사되는 경우, 제1 반사광을 수신할 수 있고, 제2 광원(720)에 의해 조사된 제2 광이 물체에 의해 반사되는 경우, 제2 반사광을 수신할 수 있다.
이미지 센서(730)에 포함된 복수의 픽셀은, 매트릭스 형태로 배열될 수 있다. 구체적으로, 복수의 픽셀은 M x M 또는 M x N (여기에서, M, N은 정수) 형태로 배열될 수 있다. 일 예로, 이미지 센서(730)는 200개의 픽셀로 구성되고, 200개의 픽셀은 10개의 로우(row) 및 20개의 컬럼(column)으로 배열될 수 있으나, 반드시 이에 한정되는 것은 아니다.
이미지 센서(730)는 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 여기에서, 제1 영역은 전자 장치(100)로부터 원거리에 위치하는 물체와의 거리를 산출하기 위한 영역이고, 제2 영역은 전자 장치(100)로부터 근거리에 위치하는 물체와의 거리를 산출하기 위한 영역이 될 수 있다.
구체적으로, 이미지 센서(730)는 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 일 예로, 기설정된 로우가 로우 3인 경우, 로우 3을 포함하는 로우 3 하부의 로우(즉, 로우 1 내지 로우 3)에 포함된 픽셀들은 제1 영역의 픽셀들로 구분되고, 로우 3의 상부의 로우(즉, 로우 4 내지 로우 10)에 포함된 픽셀들은 제2 영역의 픽셀들로 구분될 수 있다.
여기에서, 기설정된 로우는 제2 광원(720)에 의한 반사광이 이미지 센서(730)에 수신될 수 있는 위치에 기초하여 결정될 수 있다. 예를 들어, 제2 광원(720)에 의한 반사광이 복수의 픽셀(730) 중에서 로우 1 내지 로우 3에 포함된 픽셀들에만 수신될 수 있는 경우, 기설정된 로우는 로우 3이 될 수 있다. 한편, 제2 광원(720)에 의한 반사광이 이미지 센서(730)에 수신될 수 있는 위치는 제2 광원(720)의 조사 각도, 센서(130)가 지면 방향으로 기울어진 각도 등에 기초하여 실시 예에 따라 상이할 수 있다.
프로세서(740)는 센서(700)의 전반적인 동작을 제어한다. 이를 위해, 프로세서(740)는 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 그리고, 프로세서(740)는 적어도 하나의 범용 프로세서(general processor), 디지털 신호 프로세서(digital signal processor), ASIC(Application specific integrated circuit), SoC(system on chip), MICOM(Microcomputer) 등으로 구현될 수 있다.
프로세서(740)는 반사광이 수신되면, 복수의 픽셀 중에서 반사광을 수신한 픽셀을 감지할 수 있다. 구체적으로, 프로세서(740)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀을 반사광을 수신한 픽셀로 감지할 수 있다. 여기에서 기설정된 밝기 값은 광원에 의해 조사된 광의 밝기 값에 따라 다양하게 설정될 수 있다.
프로세서(740)는 이미지 센서(730)에 포함된 복수의 픽셀 중에서 제1 반사광을 수신한 픽셀들의 위치 및 제2 반사광을 수신한 픽셀들의 위치들에 관한 정보를 이미지 센서(730)로부터 수신할 수 있다. 구체적으로, 이미지 센서(730)는 제1 및 제2 반사광이 수신되면, 이미지 센서(730)에 포함된 복수의 픽셀의 밝기를 감지할 수 있다. 그리고, 이미지 센서(730)는 복수의 픽셀 중에서 기설정된 밝기 값 이상의 밝기를 가진 픽셀들을 제1 반사광을 수신한 픽셀들 및 제2 반사광을 수신한 픽셀들로 감지하고, 제1 반사광을 수신한 픽셀들의 위치 및 제2 반사광을 수신한 픽셀들의 위치에 관한 정보를 프로세서(740)로 전송할 수 있다.
이에 따라, 프로세서(740)는 제1 반사광을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다. 또한, 프로세서(740)는 제2 반사광을 수신한 픽셀들의 위치가 제1 영역에 포함되는지 또는 제2 영역에 포함되는지를 판단할 수 있다.
그리고, 프로세서(740)는 제1 영역에 포함된 제1 반사광은 제1 광에 의한 반사광으로 식별하고, 제2 영역에 포함된 제2 반사광은 제2 광에 의한 반사광으로 식별할 수 있다. 이는, 전술한 바와 같이, 제1 영역은 제2 광원(720)에 의한 반사광이 수신될 수 없는 영역이기 때문이다.
프로세서(740)는 제1 광에 의한 제1 반사광이 식별되면, 제1 알고리즘을 이용하여 제1 광원 및 제1 광을 반사한 제1 물체까지의 거리를 산출할 수 있다. 또한, 프로세서(740)는 제2 광에 의한 제2 반사광이 식별되면, 제2 알고리즘을 이용하여 제2 광원 및 제1 광을 반사한 제2 물체까지의 거리를 산출할 수 있다. 즉, 프로세서(740)는 상이한 산출 방식을 이용하여, 전자 장치(100)와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치와 제2 광을 반사한 물체와의 제2 거리를 산출할 수 있다. 제1 및 제2 알고리즘에 대한 설명은 상술한 바 있으므로, 여기서는 생략한다.
한편, 프로세서(740)는 이미지 센서(730)의 제2 영역에 제1 반사광 및 제2 반사광이 수신되는 경우, 복수의 픽셀 중 제1 반사광이 수신된 제1 픽셀들의 위치 및 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 제1 및 상기 제2 반사광 중에서 제1 광에 의한 반사광 및 제2 광에 의한 반사광을 식별할 수 있다.
구체적으로, 프로세서(740)는 복수의 픽셀 중 상대적으로 상부의 로우에 위치하는 픽셀들에 수신된 반사광을 제1 광에 의한 반사광으로 식별하고, 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 제2 광에 의한 반사광으로 식별할 수 있다.
프로세서(740)는 제1 광에 의한 반사광인 제1 반사광에 상술한 제1 알고리즘을 적용하여 제1 거리를 산출할 수 있다. 구체적으로, 프로세서(740)는 제1 반사광을 수신한 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 제1 각도, 이미지 센서(730)의 설치 각도 및 제1 광원(710)에서 이미지 센서(730)까지의 거리에 제1 알고리즘을 적용하여 제1 거리를 산출할 수 있다. 일 예로, 로우 3의 픽셀들에 제1 반사광이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(740)는 24도를 제1 각도로 판단할 수 있다.
제1 거리를 산출하기 위한 수학식은 하기와 같다.
y1 = r1 × tan(a+b)
여기에서, y1는 제1 광원(710) 및 제1 광을 반사한 물체까지의 거리인 제1 거리이고, a는 상술한 제1 각도이다. 그리고, r1은 제1 광원(710) 및 이미지 센서(730)간의 거리이고, b는 이미지 센서(130)의 설치 각도이다. 한편, 제1 광원(710) 및 이미지 센서(730)간의 거리 r1 및 이미지 센서(730)의 설치 각도 b는 센서(700)에 기설정되어 있을 수 있다.
그리고, 프로세서(740)는 제2 광에 의한 반사광인 제2 반사광에 상술한 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 구체적으로, 프로세서(740)는 제2 반사광을 수신한 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 제2 각도, 이미지 센서(730)의 설치 각도, 제2 광원(720)의 조사 각도 및 제2 광원(720)에서 이미지 센서(730)까지의 거리에 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 일 예로, 로우 2의 픽셀들에 제2 반사광이 수신되고, 컬럼상의 픽셀 하나 당 각도가 8도이면, 프로세서(740)는 16도를 제2 각도로 판단할 수 있다.
제2 거리를 산출하기 위한 수학식은 하기와 같다.
y2 = r2 × tan(a+b) × tan(c) / ( tan(c) - tan(a+b))
여기에서, y2는 제2 광원(720) 및 제2 광을 반사한 물체까지의 거리인 제2 거리이고, a는 상술한 제2 각도이다. 그리고, r2은 제2 광원(710) 및 이미지 센서(730)간의 거리이고, b는 이미지 센서(730)의 설치 각도이다. 그리고, c는 제2 광원(720)의 조사 각도이고, r3는 제2 광이 제2 물체에 의해 반사된 지점과 제2 광원(720)간의 수직 축상의 거리이다. 한편, 제2 광원(720) 및 이미지 센서(730)간의 거리 r2, 이미지 센서(730)의 설치 각도 b, 제2 광원(720)의 조사 각도 c는 센서(700)에 기설정되어 있을 수 있다.
한편, 프로세서(740)는 제1 반사광을 수신한 픽셀들의 컬럼(column)들 및 제2 반사광을 수신한 픽셀들의 컬럼들이 적어도 일부에서 일치하는 경우, 상술한 제1 및 제2 거리를 산출할 수 있다. 일 예로, 제1 반사광을 수신한 픽셀들의 컬럼들이 6 내지 12이고, 제2 반사광을 수신한 픽셀들의 컬럼들이 8 내지 12인 경우와 같이, 제1 반사광(612)을 수신한 픽셀들의 컬럼들 및 제2 반사광(622)을 수신한 픽셀들의 컬럼들이 적어도 일부에서 일치하는 경우, 상술한 제1 및 제2 거리를 산출할 수 있다.
만약, 반사광을 수신한 컬럼들에 일치하는 부분이 전혀 없는 경우이면, 전자 장치(100)를 기준으로 수평 방향으로 상이한 위치에서 제1 및 제2 반사광이 수신된 경우로서, 제1 및 제2 반사광 각각은 상이한 물체에 의해 반사된 것으로 볼 수 있기 때문이다. 이 경우, 프로세서(740)는 제1 및 제2 반사광 각각에 상술한 제2 알고리즘을 적용하여, 제1 광원(710) 및 제1 물체까지의 거리 및, 제2 광원(720) 및 제2 물체까지의 거리를 산출할 수 있다. 즉, 프로세서(740)는 제2 영역에 복수의 반사광이 수신되고, 제2 영역에 수신된 복수의 반사광의 컬럼들이 적어도 일부에서 일치하는 경우, 상술한 제1 알고리즘을 통해 제1 거리를 산출하고, 제2 알고리즘을 통해 제2 거리를 산출할 수 있다. 이에 따라, 불필요한 프로세서(740)의 연산을 방지할 수 있다.
프로세서(740)는 상술한 방법을 통해 산출된 제1 및 제2 거리 간의 차이에 기초하여, 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별할 수 있다. 구체적으로, 프로세서(740)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 제1 광을 반사한 물체와 제2 광을 반사한 물체가 동일한 물체인 것으로 식별할 수 있다. 그리고, 프로세서(740)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값을 초과하면, 제1 광을 반사한 물체와 제2 광을 반사한 물체가 상이한 물체인 것으로 식별할 수 있다. 일 예로, 프로세서(740)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값인 1m 이상인 것으로 판단되면, 제1 광을 반사한 물체와 제2 광을 반사한 물체는 상이한 물체인 것으로 식별할 수 있다. 한편, 여기에서 1m는 일 실시 예일 뿐, 기설정된 값은 50cm, 2m 등 다양하게 설정될 수 있다.
도 8a는 본 개시의 일 실시 예에 따른 복수의 광원이 상이한 패턴의 광을 조사하는 실시 예를 설명하기 위한 도면이고, 도 8b는 본 개시의 일 실시 예에 따른 상이한 패턴의 복수의 광을 수신한 센서를 도시한 도면이다.
도 8a를 참조하면, 본 개시의 일 실시 예에 따른 제1 광원(110)은 실선 패턴의 제1 광(811)을 조사하고, 제2 광원(120)은 점선 패턴의 제2 광(821)을 조사할 수 있다. 이를 위해, 제2 광원(120)에는 점선 패턴의 광을 조사하기 위한 필름이 부착될 수 있다.
이 경우, 센서(130)는 도 8b에 도시된 바와 같이, 실선 패턴의 제1 반사광(812) 및 점선 패턴의 제2 반사광(822)을 수신할 수 있다.
프로세서(140)는 반사광의 패턴에 기초하여, 복수의 반사광 중에서 제1 광(811)에 의한 반사광 및 제2 광(821)에 의한 반사광을 식별할 수 있다. 구체적으로, 프로세서(140)는 제1 광(811)의 패턴인 실선 패턴과 동일한 패턴을 가진 제1 반사광(812)을 제1 광(811)에 의한 반사광으로 식별하고, 제2 광(821)의 패턴인 점선 패턴과 동일한 패턴을 가진 제2 반사광(822)을 제2 광(812)에 의한 반사광으로 식별할 수 있다.
이후, 프로세서(140)는 전술한 바와 같이, 제1 반사광(812)에 제1 알고리즘을 적용하여 제1 거리를 산출하고, 제2 반사광(822)에 제2 알고리즘을 적용하여 제2 거리를 산출하여, 제1 및 제2 반사광(812, 822)이 동일한 물체에 의해 반사된 광인지 또는 상이한 물체에 의해 반사된 광인지를 판단할 수 있다. 이에 대한 구체적인 설명은 전술한 바 있으므로, 여기서는 생략하기로 한다.
한편, 여기서는 제1 광(811)은 실선 패턴이고, 제2 광(821)은 점선 패턴인 것으로 설명하였으나 이는 일 실시 예일 뿐, 제1 광(811) 및 제2 광(821)의 패턴은 서로 상이한 다양한 패턴이 될 수 있다고 볼 것이다.
도 9a는 본 개시의 일 실시 예에 따른 복수의 광원이 상이한 굵기의 광을 조사하는 실시 예를 설명하기 위한 도면이고, 도 9b는 본 개시의 일 실시 예에 따른 상이한 굵기의 복수의 광을 수신한 센서를 도시한 도면이다.
도 9a를 참조하면, 본 개시의 일 실시 예에 따른 제1 광원(110)은 제1 굵기의 제1 광(911)을 조사하고, 제2 광원(120)은 제2 굵기의 제2 광(921)을 조사할 수 있다. 여기에서, 제1 굵기는 제2 굵기보다 굵을 수 있으나, 반드시 이에 한정되는 것은 아니고, 제2 굵기가 제1 굵기보다 굵을 수 있다. 이를 위해, 제1 광원(110)에 포함된 광을 조사하는 다이오드의 크기는 제2 광원(120)에 포함된 광을 조사하는 다이오드의 크기보다 클 수 있다.
이 경우, 센서(130)는 도 9b에 도시된 바와 같이, 제1 굵기의 제1 반사광(912) 및 제2 굵기의 제2 반사광(922)을 수신할 수 있다.
프로세서(140)는 반사광의 굵기에 기초하여, 복수의 반사광 중에서 제1 광(911)에 의한 반사광 및 제2 광(921)에 의한 반사광을 식별할 수 있다. 구체적으로, 프로세서(140)는 제1 광(811)의 굵기와 동일한 굵기를 가진 제1 반사광(912)을 제1 광(811)에 의한 반사광으로 식별하고, 제2 광(821)의 굵기와 동일한 굵기를 가진 제2 반사광(922)을 제2 광(912)에 의한 반사광으로 식별할 수 있다.
이후, 프로세서(140)는 전술한 바와 같이, 제1 반사광(912)에 제1 알고리즘을 적용하여 제1 거리를 산출하고, 제2 반사광(922)에 제2 알고리즘을 적용하여 제2 거리를 산출하여, 제1 및 제2 반사광(912, 922)이 동일한 물체에 의해 반사된 광인지 또는 상이한 물체에 의해 반사된 광인지를 판단할 수 있다. 이에 대한 구체적인 설명은 전술한 바 있으므로, 여기서는 생략하기로 한다.
한편, 여기서는 반사광의 굵기에 기초하여, 제1 광(911)에 의한 반사광 및 제2 광(921)에 의한 반사광을 식별하는 실시 예를 설명하였으나, 본 개시는 반사광의 밝기에 기초하여 제1 광에 의한 반사광 및 제2 광에 의한 반사광을 식별할 수도 있다. 일 예로, 본 개시의 일 실시 예에 따른 제1 광원(110)은 제1 밝기의 제1 광을 조사하고, 제2 광원(120)은 제2 밝기의 제2 광을 조사할 수 있다. 여기에서, 제1 밝기는 제2 밝기보다 밝을 수 있으나, 반드시 이에 한정되는 것은 아니고, 제2 밝기가 제1 밝기보다 밝을 수 있다. 이를 위해, 제1 광원(110)에는 제1 밝기의 광을 조사할 수 있는 다이오드가 포함되고, 2 광원(120)에는 제2 밝기의 광을 조사할 수 있는 다이오드가 포함될 수 있다.
도 10은 본 개시의 일 실시 예에 따른 반사광의 굵기에 관한 정보를 이용하여, 제1 광원에 의한 반사광 및 제2 광원에 의한 반사광을 식별하는 실시 예를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 전자 장치(100)는 거리 별로 구분되는 제1 광원에 의한 반사광의 굵기에 관한 정보 및 제2 광원에 의한 반사광의 굵기에 관한 정보를 저장할 수 있다. 여기에서, 제1 광원에 의한 반사광의 굵기에 관한 정보는 전자 장치(100) 및 물체간의 거리별로, 센서(130)에 수신되는 제1 광원에 의한 반사광의 굵기를 매칭한 정보이고, 제2 광원에 의한 반사광의 굵기에 관한 정보는 전자 장치(100) 및 물체간의 거리별로, 센서(130)에 수신되는 제2 광원에 의한 반사광의 굵기를 매칭한 정보가 될 수 있다.
프로세서(140)는 제1 및 제2 반사광의 굵기에 관한 정보에 기초하여, 센서(112)로 반사된 복수의 반사광 중에서, 제1 광원(110)에서 조사된 제1 광에 의한 반사광 및 제2 광원(120)에서 조사된 제2 광에 의한 반사광을 식별할 수 있다.
구체적으로, 프로세서(140)는 제2 영역에 포함된 복수의 반사광에 전술한 제2 알고리즘을 적용하여, 전자 장치(100) 및 물체와의 거리인 제2 거리를 판단할 수 있다. 그리고, 프로세서(140)는 도 10과 같은 제2 광원에 의한 반사광의 굵기에 관한 정보에 기초하여, 제2 거리에 매칭된 반사광의 굵기를 판단할 수 있다. 일 예로, 제2 거리가 3m로 판단되는 경우, 프로세서(140)는 제2 광원에 의한 반사광의 굵기에 관한 정보에 기초하여, 제2 거리에 매칭된 반사광의 굵기로 0.3mm를 판단할 수 있다. 그리고, 프로세서(140)는 실제 센서(130)에 수신된 반사광의 굵기가 제2 거리에 매칭된 반사광의 굵기에 대응되는 경우이면, 반사광은 제2 광원(120)에 의한 반사광이고, 대응되지 않는 경우이면, 반사광은 제1 광원(110)에 의한 반사광인 것으로 판단할 수 있다. 예를 들어, 제2 광원에 의한 반사광의 굵기에 관한 정보에 기초하여 판단한 반사광의 굵기는 상술한 바와 같이 0.3mm이나, 실제 센서(130)에 수신된 반사광의 굵기는 0.2mm인 것으로 판단되면, 프로세서(140)는 반사광은 제1 광원(110)에 의한 반사광인 것으로 판단할 수 있다. 이 경우, 프로세서(140)는 해당 반사광에 제1 알고리즘을 다시 적용하여, 전자 장치(100) 및 물체와의 거리를 산출할 수 있다. 만약, 실제 센서(130)에 수신된 반사광의 굵기도 0.3mm이고, 제2 광원에 의한 반사광의 굵기에 관한 정보에 기초하여 판단한 반사광의 굵기도 0.3mm라면, 프로세서(140)는 반사광은 제2 광원(110)에 의한 반사광인 것으로 판단할 수 있다.
도 11은 본 개시의 일 실시 예에 따른 제1 광원에 의한 반사광 및 제2 광원에 의한 반사광을 주기에 따라 식별하는 실시 예를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 제1 광원(110) 및 제2 광원(120)은 서로 다른 주기로 광을 조사할 수 있다. 구체적으로, 제1 광원(110)은 T1 주기로 제1 광을 조사할 수 있다. 일 예로, T1이 1(msec) 인 경우, 제1 광원(110)은 0에서 1(msec) 구간에서는 광을 조사하고, 2(msec)에서 3(msec) 구간에서는 광을 조사하지 않을 수 있다. 그리고, 제2 광원(120)은 제1 광원(110)과는 상이한 주기로 광을 조사할 수 있다. 일 예로, T1이 1(msec) 인 경우, 제2 광원(120)의 주기 T2는 2(msec)가 될 수 있다. 이 경우, 제2 광원(120)은 0에서 1(msec) 구간에서는 광을 조사하지 않고, 2(msec)에서 3(msec) 구간에서는 광을 조사할 수 있다.
프로세서(140)는 제1 광원(110) 및 제2 광원(120)의 주기에 기초하여, 반사광이 제1 광원(110)에 의한 반사광 및 제2 광원(120)에 의한 반사광인지를 식별할 수 있다. 구체적으로, 프로세서(140)는 T1 주기에 센서(130)에 수신된 반사광은 제1 광원(110)에 의한 반사광으로 식별하고, T2 주기에 센서(130)에 수신된 반사광은 제2 광원(120)에 의한 반사광으로 식별할 수 있다.
이후, 프로세서(140)는 전술한 바와 같이, 제1 광원(110)에 의한 반사광에 제1 알고리즘을 적용하여 제1 거리를 산출하고, 제2 광원(120)에 의한 반사광에 제2 알고리즘을 적용하여 제2 거리를 산출하여, 복수의 반사광이 동일한 물체에 의해 반사된 광인지 또는 상이한 물체에 의해 반사된 광인지를 판단할 수 있다. 이에 대한 구체적인 설명은 전술한 바 있으므로, 여기서는 생략하기로 한다.
도 12는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
전자 장치(100)는 제1 광원을 통해 제1 광을 조사하고, 제2 광원을 통해 제1 광과는 상이한 방향으로 제2 광을 조사(S1210)할 수 있다. 여기에서, 제1 광원은, 제2 광원보다 상부에 위치할 수 있다.
전자 장치(100)는 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 센서에 수신되면, 상이한 산출 방식을 이용하여 전자 장치(100)와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치(100)와 제2 광을 반사한 물체와의 제2 거리를 산출(S1220)할 수 있다.
여기에서, 센서는 복수의 픽셀을 포함하고, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 그리고, 전자 장치(100)는 제1 및 제2 반사광이 센서의 제2 영역이 수신되고, 제1 반사광을 수신한 제1 픽셀들의 컬럼들 및 제2 반사광을 수신한 제2 픽셀들의 컬럼들이 적어도 일부에서 일치하는 경우, 전자 장치(100)와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치(100)와 제2 광을 반사한 물체와의 제2 거리를 산출할 수 있다.
구체적으로, 전자 장치(100)는 제2 영역에 포함된 복수의 픽셀 중 상대적으로 상부의 로우에 위치하는 픽셀들에 수신된 반사광을 제1 광에 의한 반사광으로 식별하고, 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 제2 광에 의한 반사광으로 식별할 수 있다.
그리고, 전자 장치(100)는 제1 반사광을 수신한 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 제1 각도, 센서의 설치 각도 및 제1 광원에서 센서까지의 거리에 제1 알고리즘을 적용하여 제1 거리를 산출하고, 제2 반사광을 수신한 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 제2 각도, 센서의 설치 각도, 제2 광원의 조사 각도 및 제2 광원에서 센서까지의 거리에 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 제1 및 제2 거리의 산출 방법에 대한 구체적인 설명은 상술한 바 있으므로, 여기서는 생략한다.
전자 장치(100)는 산출된 제1 및 제2 거리에 기초하여, 제1 광을 반사한 물체와 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별(S1230)할 수 있다.
구체적으로, 전자 장치(100)는 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 제1 광을 반사한 물체와 제2 광을 반사한 물체가 동일한 물체인 것으로 식별하고, 산출된 제1 및 제2 거리 간의 차이가 기설정된 값을 초과하면, 제1 광을 반사한 물체와 제2 광을 반사한 물체가 상이한 물체인 것으로 식별할 수 있다.
도 13은 본 개시의 일 실시 예에 따른 센서의 제어 방법을 설명하기 위한 흐름도이다.
센서(700)는 제1 광원을 통해 제1 광을 조사하고, 제2 광원을 통해 제1 광과는 상이한 방향으로 제2 광을 조사(S1310)할 수 있다. 여기에서, 제1 광원은, 제2 광원보다 상부에 위치할 수 있다.
센서(700)는 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 이미지 센서에 수신되면, 상이한 산출 방식을 이용하여 전자 장치(100)와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치(100)와 제2 광을 반사한 물체와의 제2 거리를 산출(S1320)할 수 있다.
여기에서, 이미지 센서는 복수의 픽셀을 포함하고, 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분될 수 있다. 그리고, 센서(700)는 제1 및 제2 반사광이 센서의 제2 영역이 수신되고, 제1 반사광을 수신한 제1 픽셀들의 컬럼들 및 제2 반사광을 수신한 제2 픽셀들의 컬럼들이 적어도 일부에서 일치하는 경우, 전자 장치(100)와 제1 광을 반사한 물체와의 제1 거리 및 전자 장치(100)와 제2 광을 반사한 물체와의 제2 거리를 산출할 수 있다.
구체적으로, 센서(700)는 제2 영역에 포함된 복수의 픽셀 중 상대적으로 상부의 로우에 위치하는 픽셀들에 수신된 반사광을 제1 광에 의한 반사광으로 식별하고, 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 제2 광에 의한 반사광으로 식별할 수 있다.
그리고, 센서(700)는 제1 반사광을 수신한 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 제1 각도, 이미지 센서의 설치 각도 및 제1 광원에서 이미지 센서까지의 거리에 제1 알고리즘을 적용하여 제1 거리를 산출하고, 제2 반사광을 수신한 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 제2 각도, 이미지 센서의 설치 각도, 제2 광원의 조사 각도 및 제2 광원에서 이미지 센서까지의 거리에 제2 알고리즘을 적용하여 제2 거리를 산출할 수 있다. 제1 및 제2 거리의 산출 방법에 대한 구체적인 설명은 상술한 바 있으므로, 여기서는 생략한다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 상세 블록도이다.
도 14를 참조하면, 본 개시의 일 실시 예에 따른 전자 장치(100)는 제1 광원(110), 제2 광원(120), 센서(130), 메모리(150), 입력부(160), 디스플레이(170), 구동부(180), 통신부(190) 및 프로세서(140)를 포함할 수 있다. 이하 상술한 설명 부분과 중복되는 부분은 생략하거나 축약하여 설명한다.
메모리(150)는 전자 장치(100)의 구성요소의 전반적인 동작을 제어하기 위한 운영체제(Operating System: OS) 및 전자 장치(100)의 구성요소와 관련된 명령 또는 데이터를 저장할 수 있다.
이에 따라, 프로세서(140)는 메모리(150)에 저장된 다양한 명령 또는 데이터 등을 이용하여 전자 장치(100)의 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 다른 구성요소들 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
특히, 메모리(150)는 제1 광원(110)에 의한 반사광에 기초하여, 전자 장치(100) 및 물체간의 거리를 산출하기 위한 제1 알고리즘 및 제2 광원(120)에 의한 반사광에 기초하여, 전자 장치(100) 및 물체간의 거리를 산출하기 위한 제2 알고리즘에 대한 정보를 저장할 수 있다. 또한, 메모리(150)는 거리 별로 구분되는 제1 광원(110)에 의한 반사광의 굵기에 관한 정보 및 제2 광원(120)에 의한 반사광의 굵기에 관한 정보를 저장할 수 있다.
입력부(160)는 사용자 입력을 수신할 수 있다. 입력부(160)는 버튼, 터치 스크린을 포함할 수 있다.
디스플레이(170)는 다양한 화면을 표시할 수 있다. 예를 들어, 디스플레이(170)는 전자 장치(100) 주변의 물체 및 물체와의 거리에 대한 정보를 표시할 수 있다.
이러한 디스플레이(170)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(170) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(170)는 터치 감지부와 결합되어 터치 스크린으로 구현될 수 있다.
구동부(180)는 전자 장치(100)를 이동시킬 수 있다. 이를 위해, 구동부(180)는 하나 또는 둘 이상의 바퀴와 연결되고, 바퀴를 회전시킬 수 있는 모터 등의 구동 유닛을 구비할 수 있다. 그리고 구동부(180)는 프로세서(140)의 제어 신호에 따라 전자 장치(100)의 이동, 정지, 방향 전환 등의 주행 동작을 수행할 수 있다. 일 예로, 구동부(180)는 전자 장치(100) 근처에 하나의 물체가 위치하는 경우이면, 해당 물체를 회피하여 전자 장치(100)가 이동하도록 구동될 수 있고, 전자 장ㅊ(100) 근처에 복수의 물체가 위치하는 경우이면, 복수의 물체를 회피하여 전자 장치(100)가 이동하도록 구동될 수 있다.
통신부(190)는 외부 장치와 통신을 수행하는 구성이다. 예를 들어, 통신부(190)는 BT(Bluetooth), BLE(Bluetooth Low Energy), WI-FI(Wireless Fidelity), Zigbee 등과 같은 무선 통신 방식 또는 IR(Infrared) 통신 방식을 통해 다양한 외부 장치와 통신을 수행할 수 있다. 한편, 통신부(190)는 프로세서(140)에 탑재되어 있을 수 있음은 물론, 프로세서(140)와는 별개의 구성으로 전자 장치(100)에 포함될 수도 있다.
한편, 상술한 구성들은 일 실시 예로써, 전자 장치(100)는 상술한 복수의 구성 중 일부의 구성을 제외하고 구현될 수도 있고, 상술한 복수의 구성 외 추가적인 구성을 더 포함하여 구현될 수도 있다.
일 예로, 전자 장치(100)는 스피커를 더 포함할 수 있다. 스피커는 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터를 출력하는 구성이다. 본 개시의 일 실시 예에 따르면, 스피커는 전자 장치(100)의 주행을 시작하는 경우나 주행 방향을 변경하는 경우 등에 사운드를 출력할 수 있다.
또한, 전자 장치(100)는 마이크를 더 포함할 수 있다. 마이크는 사용자 음성을 수신할 수 있다. 여기에서, 사용자 음성은 전자 장치(100)의 태스크 실행을 위한 사용자 음성 등이 될 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 소프트웨어 또는 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 외부의 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시에 따른 전자 장치의 제어 방법을 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
한편, 비일시적 판독 가능 매체란 레지스터, 캐시, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시의 기술적 사상은 상술한 특정의 실시 예에 한정되지 아니하며, 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 전자 장치
110: 제1 광원
120: 제2 광원
130): 센서

Claims (20)

  1. 전자 장치에 있어서,
    센서;
    제1 광을 조사하는 제1 광원;
    상기 제1 광과 상이한 방향으로 제2 광을 조사하는 제2 광원; 및
    상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 상기 센서에 수신되면, 상이한 산출 방식을 이용하여 상기 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 프로세서;를 포함하는, 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 산출된 제1 및 제2 거리에 기초하여 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별하는, 전자 장치.
  3. 제1항에 있어서,
    상기 센서는, 복수의 픽셀을 포함하고,
    상기 프로세서는,
    상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출하는, 전자 장치.
  4. 제3항에 있어서,
    상기 프로세서는,
    상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별하는, 전자 장치.
  5. 제3항에 있어서,
    상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분되고,
    상기 프로세서는,
    상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제2 영역의 픽셀들에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출하는, 전자 장치.
  6. 제5항에 있어서,
    상기 제1 광원은, 상기 전자 장치의 정면 방향으로 상기 제1 광을 조사하고,
    상기 제2 광원은, 상기 정면 방향으로부터 기설정된 각도만큼 아래인 방향으로 상기 제2 광을 조사하며,
    상기 제2 영역은,
    상기 복수의 픽셀 중 상기 기설정된 로우의 픽셀들보다 하부에 위치하는 픽셀들을 포함하는, 전자 장치.
  7. 제3항에 있어서,
    상기 프로세서는,
    상기 제1 반사광을 수신한 상기 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 상기 제1 각도, 상기 센서의 설치 각도 및 상기 제1 광원에서 상기 센서까지의 거리에 제1 알고리즘을 적용하여 상기 제1 거리를 산출하고,
    상기 제2 반사광을 수신한 상기 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 상기 제2 각도, 상기 센서의 설치 각도, 상기 제2 광원의 조사 각도 및 상기 제2 광원에서 상기 센서까지의 거리에 제2 알고리즘을 적용하여 상기 제2 거리를 산출하는, 전자 장치.
  8. 제2항에 있어서,
    상기 프로세서는,
    상기 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인 것으로 식별하고, 상기 산출된 제1 및 제2 거리 간의 차이가 상기 기설정된 값을 초과하면, 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 상이한 물체인 것으로 식별하는, 전자 장치.
  9. 전자 장치의 제어 방법에 있어서,
    제1 광원을 통해 제1 광을 조사하고, 제2 광원을 통해 상기 제1 광과 상이한 방향으로 제2 광을 조사하는 단계; 및
    상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 센서에 수신되면, 상이한 산출 방식을 이용하여 상기 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 단계;를 포함하는, 전자 장치의 제어 방법.
  10. 제9항에 있어서,
    상기 산출된 제1 및 제2 거리에 기초하여 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인지 또는 상이한 물체인지를 식별하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
  11. 제10항에 있어서,
    상기 센서는, 복수의 픽셀을 포함하고,
    상기 거리를 산출하는 단계는,
    상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출하는, 전자 장치의 제어 방법.
  12. 제11항에 있어서,
    상기 반사광을 식별하는 단계는,
    상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별하는, 전자 장치의 제어 방법.
  13. 제11항에 있어서,
    상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역의 픽셀들 및 제2 영역의 픽셀들로 구분되고,
    상기 거리를 산출하는 단계는,
    상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제2 영역의 픽셀들에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출하는, 전자 장치의 제어 방법.
  14. 제13항에 있어서,
    상기 제1 광원은, 상기 전자 장치의 정면 방향으로 상기 제1 광을 조사하고,
    상기 제2 광원은, 상기 정면 방향으로부터 기설정된 각도만큼 아래인 방향으로 상기 제2 광을 조사하며,
    상기 제2 영역은,
    상기 복수의 픽셀 중 상기 기설정된 로우의 픽셀들보다 하부에 위치하는 픽셀들을 포함하는, 전자 장치의 제어 방법.
  15. 제11항에 있어서,
    상기 거리를 산출하는 단계는,
    상기 제1 반사광을 수신한 상기 제1 픽셀들의 로우의 위치에 기초하여 제1 각도를 판단하고, 상기 제1 각도, 상기 센서의 설치 각도 및 상기 제1 광원에서 상기 센서까지의 거리에 제1 알고리즘을 적용하여 상기 제1 거리를 산출하고,
    상기 제2 반사광을 수신한 상기 제2 픽셀들의 로우의 위치에 기초하여 제2 각도를 판단하고, 상기 제2 각도, 상기 센서의 설치 각도, 상기 제2 광원의 조사 각도 및 상기 제2 광원에서 상기 센서까지의 거리에 제2 알고리즘을 적용하여 상기 제2 거리를 산출하는, 전자 장치의 제어 방법.
  16. 제10항에 있어서,
    상기 물체를 식별하는 단계는,
    상기 산출된 제1 및 제2 거리 간의 차이가 기설정된 값 이하이면 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 동일한 물체인 것으로 식별하고, 상기 산출된 제1 및 제2 거리 간의 차이가 상기 기설정된 값을 초과하면, 상기 제1 광을 반사한 물체와 상기 제2 광을 반사한 물체가 상이한 물체인 것으로 식별하는, 전자 장치의 제어 방법.
  17. 센서에 있어서,
    복수의 픽셀;
    제1 광을 조사하는 제1 광원;
    상기 제1 광과 상이한 방향으로 제2 광을 조사하는 제2 광원; 및
    상기 제1 및 제2 광이 물체에 의해 반사됨에 따라, 제1 및 제2 반사광이 상기 복수의 픽셀에 수신되면, 상이한 산출 방식을 이용하여 전자 장치와 상기 제1 광을 반사한 물체와의 제1 거리 및 상기 전자 장치와 상기 제2 광을 반사한 물체와의 제2 거리를 산출하는 프로세서;를 포함하는 센서.
  18. 제17항에 있어서,
    상기 프로세서는,
    상기 복수의 픽셀 중 상기 제1 반사광이 수신된 제1 픽셀들의 위치 및 상기 제2 반사광이 수신된 제2 픽셀들의 위치에 기초하여, 상기 제1 및 상기 제2 반사광 중에서 상기 제1 광에 의한 반사광 및 상기 제2 광에 의한 반사광을 식별하고, 상기 식별된 반사광에 기초하여 상기 제1 및 제2 거리를 산출하는, 센서.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 복수의 픽셀 중 상대적으로 상부의 로우(row)에 위치하는 픽셀들에 수신된 반사광을 상기 제1 광에 의한 반사광으로 식별하고, 상기 제1 광에 의한 반사광과 동일한 컬럼(column)상의 상대적으로 하부의 로우에 위치하는 픽셀들에 수신된 반사광을 상기 제2 광에 의한 반사광으로 식별하는, 센서.
  20. 제18항에 있어서,
    상기 복수의 픽셀은, 기설정된 로우의 픽셀들을 기준으로 제1 영역 및 제2 영역으로 구분되고,
    상기 프로세서는,
    상기 제1 픽셀들 및 상기 제2 픽셀들이 상기 제1 영역에 포함되는 경우, 상기 상이한 산출 방식을 이용하여 상기 제1 및 제2 거리를 산출하는, 센서.
KR1020190141199A 2019-11-06 2019-11-06 전자 장치 및 그 제어 방법 KR20210054920A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190141199A KR20210054920A (ko) 2019-11-06 2019-11-06 전자 장치 및 그 제어 방법
CN202080076818.5A CN114641703A (zh) 2019-11-06 2020-10-13 电子设备及其控制方法
US17/069,316 US20210132225A1 (en) 2019-11-06 2020-10-13 Electronic apparatus and control method thereof
EP20885837.3A EP3977168A4 (en) 2019-11-06 2020-10-13 ELECTRONIC DEVICE AND CORRESPONDING CONTROL METHOD
PCT/KR2020/013912 WO2021091105A1 (en) 2019-11-06 2020-10-13 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190141199A KR20210054920A (ko) 2019-11-06 2019-11-06 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20210054920A true KR20210054920A (ko) 2021-05-14

Family

ID=75686285

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190141199A KR20210054920A (ko) 2019-11-06 2019-11-06 전자 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US20210132225A1 (ko)
EP (1) EP3977168A4 (ko)
KR (1) KR20210054920A (ko)
CN (1) CN114641703A (ko)
WO (1) WO2021091105A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114755444B (zh) * 2022-06-14 2022-10-21 天津所托瑞安汽车科技有限公司 目标速度测定方法、装置、电子设备及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241340A (ja) * 2004-02-25 2005-09-08 Sharp Corp マルチ測距装置
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
KR101577040B1 (ko) * 2014-02-06 2015-12-11 주식회사 에스원 얼굴 인식 장치 및 방법
US10416289B2 (en) 2015-02-19 2019-09-17 Philips Photonics Gmbh Infrared laser illumination device
US10401496B2 (en) * 2015-09-30 2019-09-03 Ams Sensors Singapore Pte. Ltd. Optoelectronic modules operable to collect distance data via time-of-flight and triangulation
US10596964B2 (en) * 2016-01-13 2020-03-24 Ricoh Company, Ltd. Distance measurement device, moveable device, and distance measuring method
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
US11125860B2 (en) 2017-09-29 2021-09-21 Rockwell Automation Technologies, Inc. Triangulation applied as a safety scanner
US11662433B2 (en) * 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method
JP2019174308A (ja) * 2018-03-29 2019-10-10 株式会社東芝 撮像装置、撮像装置の距離算出方法、及び撮像装置の距離算出プログラム
US11156717B2 (en) * 2018-05-03 2021-10-26 GM Global Technology Operations LLC Method and apparatus crosstalk and multipath noise reduction in a LIDAR system

Also Published As

Publication number Publication date
WO2021091105A1 (en) 2021-05-14
EP3977168A4 (en) 2022-08-03
CN114641703A (zh) 2022-06-17
US20210132225A1 (en) 2021-05-06
EP3977168A1 (en) 2022-04-06

Similar Documents

Publication Publication Date Title
KR102254580B1 (ko) 광학-기반 액티브 스타일러스 입력 인식을 위한 시스템 및 방법
US20110205155A1 (en) Methods and Systems for Position Detection Using an Interactive Volume
US11644571B2 (en) Electronic apparatus and control method thereof
US10296772B2 (en) Biometric enrollment using a display
KR20170060353A (ko) 전자 장치, 거리 측정 센서 및 그 제어 방법
US11087473B2 (en) Method and pixel array for detecting motion information
US11938637B2 (en) Robot and control method thereof
KR20210054920A (ko) 전자 장치 및 그 제어 방법
US10521052B2 (en) 3D interactive system
US20230191617A1 (en) Robot and control method therefor
US11222445B2 (en) Input apparatus for displaying a graphic corresponding to an input touch command and controlling method therefor
US9213448B2 (en) Positioning module, optical touch system and method of calculating a coordinate of a touch medium
JP2016526213A (ja) スイッチ作動装置、移動機器、および、非触覚並進ジェスチャによるスイッチの作動方法
KR20210003032A (ko) 전자 장치 및 그 제어 방법
KR101609263B1 (ko) 적외선을 이용하여 제스쳐를 인식하기 위한 장치 및 그 방법
KR20130003241A (ko) 비접촉식 입력장치
US9927523B2 (en) Event filtering device and motion recognition device thereof
KR102215734B1 (ko) Ir 레이저 기반의 개체 인식을 통한 인터랙티브 시스템
US12033331B2 (en) Method and pixel array for detecting motion information
KR102215733B1 (ko) 레이저를 이용한 인터랙티브 시스템
CN115291242A (zh) 飞行时间(tof)相机设备