KR20240081709A - 교통약자 유도 장치 및 방법 - Google Patents
교통약자 유도 장치 및 방법 Download PDFInfo
- Publication number
- KR20240081709A KR20240081709A KR1020220165055A KR20220165055A KR20240081709A KR 20240081709 A KR20240081709 A KR 20240081709A KR 1020220165055 A KR1020220165055 A KR 1020220165055A KR 20220165055 A KR20220165055 A KR 20220165055A KR 20240081709 A KR20240081709 A KR 20240081709A
- Authority
- KR
- South Korea
- Prior art keywords
- destination
- vehicle
- point
- braille block
- drop
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000001939 inductive effect Effects 0.000 title claims abstract description 16
- 238000012544 monitoring process Methods 0.000 claims abstract description 15
- 230000001771 impaired effect Effects 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 13
- 230000006698 induction Effects 0.000 claims description 10
- 238000009434 installation Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/181—Preparing for stopping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/04—Vehicle stop
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Automation & Control Theory (AREA)
- General Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Child & Adolescent Psychology (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명의 일 실시예에 의한 교통약자 유도 방법에 있어서, 차량이 목적지에 진입하여 목적지 주변을 모니터링하고, 모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고, 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하다.
Description
본 실시예들은 모든 분야의 자율주행차량(vehicle)에 적용 가능하며, 보다 구체적으로 예를 들면, 교통약자 특히 시각장애인들이 탑승하는 차량 시스템에 적용될 수도 있다.
미국 자동차 공학회인 SAE(Society of Automotive Engineers)는 자율 주행 레벨을 예를 들어 다음과 같이, 레벨0부터 레벨5까지 총 6단계로 세분화하고 있다.
레벨 0(비자동화, No Automation)은, 탑승자가 주행의 모든 것을 통제하고 책임지는 단계이다. 탑승자가 항시 운전하며, 자율주행차량의 시스템은 긴급상황 알림 등 보조 기능만을 수행한다. 주행 제어의 주체는 인간이며, 주행 중 변수 감지와 주행 책임도 인간에게 있는 레벨이다.
레벨 1(탑승자 보조, Driver Assistance)은, 어뎁티브 크루즈 컨트롤, 차선유지 기능을 통해 탑승자를 보조하는 단계이다. 시스템 활성화로 자율주행차량의 속도와 차간거리 유지, 차선 유지로 탑승자를 보조한다. 주행 제어 주체는 인간과 시스템에 있으며, 주행 중에 발생하는 변수의 감지와 주행 책임은 모두 인간에게 있는 레벨이다.
레벨 2(부분 자동화, Partial Automation)는, 특정 조건 내에서 일정 시간 동안 자율주행차량의 조향과 가감속을 자율주행차량이 인간과 동시에 제어할 수 있는 단계이다. 완만한 커브에서의 조향과 앞 차와의 간격을 유지하는 보조 주행이 가능하다. 그러나, 주행 중 변수 감지와 주행 책임은 인간에게 있는 레벨로, 탑승자는 항상 주행 상황의 모니터링이 필요하며, 시스템이 인지하지 못하는 상황 등에서는 탑승자가 즉시 운전에 개입해야 한다.
레벨 3(조건부 자율주행, Partial Automation)은, 고속도로와 같은 특정 조건의 구간에서 시스템이 주행을 담당하며, 위험 시에만 탑승자가 개입하는 레벨이다. 주행 제어와 주행 중 변수 감지는 시스템이 담당하며, 레벨 2와 다르게 상기 모니터링을 요구하지 않는다. 다만, 시스템의 요구 조건을 넘어서는 경우, 시스템은 탑승자의 즉시 개입을 요청한다.
레벨 4(고등 자율주행, High Automation)는, 대부분의 도로에서 자율주행이 가능하다. 주행 제어와 주행 책임이 모두 시스템에 있다. 제한 상황을 제외한 대부분의 도로에서 탑승자 개입이 불필요하다. 다만, 악천후와 같은 특정 조건에서는 탑승자 개입이 요청될 수 있기에 인간을 통한 주행 제어 장치가 필요한 단계이다.
레벨 5(완전 자율주행, Full Automation)는, 탑승자가 불필요하며, 탑승자만으로 주행이 가능한 단계이다. 탑승자는 목적지만 입력하며, 시스템이 모든 조건에서 주행을 담당한다. 레벨 5 단계에서는 자율주행차량의 조향과 가속, 감속을 위한 제어 장치들이 불필요하다.
그러나 교통약자 특히 시각장애인들이 차량에서 하차 후 안전한 이동을 할 수 있도록 점자 블록, 인도, 장애물이 없는 안전한 위치, 시각장애인의 목적지 등의 특정 장소까지 안내해 주기 위한 교통약자 유도 장치가 필요하다.
상술한 바와 같은 문제점 등을 해결하기 위해 본 발명의 일 실시예는, 차량에 탑승한 시각 장애인이 특정 장소에서 하차할 때, 주변 장애물 및 점자 블록까지 확인하여 해당 근처로 안내하는 교통약자 유도 장치를 제공하고자 한다.
본 발명에서 해결하고자 하는 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 과제를 해결하기 위한 본 발명의 일 실시예들 중 어느 하나에 의한 교통약자 유도 방법은, 차량이 목적지에 진입하여 목적지 주변을 모니터링하고, 모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고, 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 차량이 목적지에 진입하여 상기 목적지 주변을 모니터링하는 것은 상기 목적지가 정형화된 목적지인 경우, 도착 예상지점 번잡도, 점자 블록 위치 정보 중 적어도 하나의 정보를 수집하는 것을 포함한다.
실시예에 따라, 상기 모니터링 정보에 기초하여 차량이 상기 목적지의 하차 지점을 판단하는 것은 상기 목적지의 점자 블록 사이에 장애물 여부를 판단하고, 상기 장애물이 없는 경우, 상기 하차 지점에 차량이 정차하는 것으로 판단하는 것을 포함한다.
실시예에 따라, 상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은 상기 하차 지점의 점자 블록 위치를 확인하고, 확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 차량이 목적지에 진입하여 상기 목적지 주변을 모니터링하는 것은 상기 목적지가 정형화되지 않은 목적지인 경우, 도착 예상지점 번잡도, 상호명, 문 위치 중 적어도 하나의 정보를 수집하는 것을 포함한다.
실시예에 따라, 상기 모니터링 정보에 기초하여 차량이 상기 목적지의 하차 지점을 판단하는 것은 상기 목적지가 정형화되지 않은 목적지의 점자 블록 유무를 판단하는 것을 포함한다.
실시예에 따라, 상기 목적지에 점자 블록이 있는 경우, 점자 블록과 하차 지점과의 거리가 기 설정된 거리 이내인지 판단하는 것을 더 포함한다.
실시예에 따라, 상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은 상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내인 경우, 상기 하차 지점의 점자 블록 위치를 확인하고, 확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함한다.
실시예에 따라, 상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은 상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내가 아닌 경우, 상기 하차 지점의 점자 블록을 무시하고, 상기 판단된 하차 지점으로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함한다.
본 발명의 실시예들 중 어느 하나에 의하면, 차량이 시각 장애인에게 제공할 수 있는 정보를 거리 별로 다르게 제공함으로써 그들에게 조금 더 쉽게 호출 차량을 식별할 수 있게 해줄 수 있는 효과가 있다.
본 발명의 실시예들 중 어느 하나에 의하면, 주변으로 차량이 왔을 경우 차량이 시각 장애인 방향으로 바람에 향기를 태워 보내면 어느 방향으로 차량이 도착해 있는지 확인이 가능하여 탑승할 문의 위치를 판단할 수 있게 해줄 수 있는 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 자율주행차량에 적용되는 예시를 보인 예시도이다.
도 3 내지 도 4는 본 발명의 일 실시예들 중 어느 하나에 의한 교통약자 유도 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예들에 따른 교통 약자에 대응하는 점자 블록 시스템을 설명하기 위한 도면이다.
도 6 내지 도 7은 본 발명의 일 실시예들에 따른 교통약자 유도 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예들에 따른 정형화된 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 9는 본 발명의 일 실시예들에 따른 정형화되지 않은 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 10은 본 발명의 일 실시예들에 따른 점자 블록 시스템 동작 방법을 도시한 플로우차트이다.
도 2는 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 자율주행차량에 적용되는 예시를 보인 예시도이다.
도 3 내지 도 4는 본 발명의 일 실시예들 중 어느 하나에 의한 교통약자 유도 장치를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예들에 따른 교통 약자에 대응하는 점자 블록 시스템을 설명하기 위한 도면이다.
도 6 내지 도 7은 본 발명의 일 실시예들에 따른 교통약자 유도 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예들에 따른 정형화된 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 9는 본 발명의 일 실시예들에 따른 정형화되지 않은 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 10은 본 발명의 일 실시예들에 따른 점자 블록 시스템 동작 방법을 도시한 플로우차트이다.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다. 도 2는 본 발명의 일 실시예들 중 어느 하나에 의한 자율 주행 장치가 자율주행차량에 적용되는 예시를 보인 예시도이다.
우선, 도 1 및 도 2를 참조하여 본 실시예들에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템(예를 들어, 자율주행차량)의 구조 및 기능에 대하여 설명한다.
도 1에 도시된 바와 같이, 자율주행차량(1000)은, 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 자율주행차량 제어 출력 인터페이스(401)를 통해 자율주행차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다. 다만, 자율 주행 통합 제어부(600)를, 당해 명세서 상에서 컨트롤러, 프로세서 또는 간단히 제어부로 지칭할 수도 있다.
자율 주행 통합 제어부(600)는 자율주행차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 도시된 바와 같이, 주행 모드 스위치(110) 및 컨트롤 패널(120)(예를 들어, 자율주행차량에 장착된 네비게이션 단말, 탑승자가 소지한 스마트폰 또는 태블릿 PC 등등)을 포함할 수 있으며, 이에 따라 운전 정보는 자율주행차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다.
예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 자율주행차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드 또는 스포츠 모드(Sports Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운정 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.
또한, 탑승자가 컨트롤 패널(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.
한편, 컨트롤 패널(120)은 자율주행차량의 자율 주행 제어를 위한 정보를 탑승자가 입력하거나 수정하기 위한 UI (User Interface)를 제공하는 터치 스크린 패널로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 컨트롤 패널(120) 상의 터치 버튼으로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 자율주행차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 자율주행차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 자율주행차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 바와 같이, 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 제어부(200)에 의해 검출될 수 있다.
나아가, 자율주행차량의 주행 정보는 자율주행차량의 위치 정보를 포함할 수도 있으며, 자율주행차량의 위치 정보는 자율주행차량에 적용된 GPS(Global Positioning System) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 자율주행차량의 자율 주행 모드 또는 수동 주행 모드에서 자율주행차량의 주행을 제어하기 위해 활용될 수 있다.
또한, 자율 주행 통합 제어부(600)는 자율주행차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 자율주행차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 자율주행차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 자율주행차량의 주행 모드, 변속 레인지, 차속 등 자율주행차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다.
또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 자율주행차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 탑승자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 바와 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 컨트롤 패널(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 자율주행차량의 자율 주행 모드 또는 수동 주행 모드에서 자율주행차량의 주행 제어를 위한 제어 정보를 자율주행차량 제어 출력 인터페이스(401)를 통해 자율주행차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 자율주행차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 바와 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 자율주행차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 자율주행차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 자율주행차량의 제동력을 조절하여 자율주행차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 자율주행차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 자율주행차량의 조향을 제어할 수 있다.
상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 탑승자의 조작에 따른 운전 정보 및 자율주행차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 자율 주행 알고리즘에 따라 생성되는 제어 정보를 자율주행차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 자율주행차량의 주행 제어가 이루어지도록 동작할 수 있다.
한편, 자율주행차량의 안정적인 자율 주행을 보장하기 위해서는 자율주행차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 바와 같이 주변 자율주행차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 자율주행차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다.
센서부(500)는 도 1에 도시된 바와 같이 자율주행차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.
라이다 센서(510)는 자율주행차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율주행차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Horizontal Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 자율주행차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
레이더 센서(520)는 자율주행차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 자율주행차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 자율주행차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
카메라 센서(530)는 자율주행차량 주변을 촬상하여 자율주행차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.
카메라 센서(530)는 자율주행차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.
또한, 자율주행차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 자율주행차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.
라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530)뿐만 아니라, 센서부(500)는 도 1에 도시된 바와 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 자율주행차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다.
도 2는 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 자율주행차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 자율주행차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 자율주행차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다.
나아가, 센서부(500)는 자율주행차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.
마지막으로, 센서부(500)는 마이크(550)를 추가적으로 부가하고 있으며, 내부 마이크(551) 및 외부 마이크(552)는 각각 다른 용도를 위해 사용된다.
내부 마이크(551)는, 예를 들어 자율주행차량(1000)에 탑승한 탑승자의 음성을 AI 등에 기반하여 분석하거나 또는 직접적인 음성 명령에 즉각적으로 반응하기 위해 사용될 수 있다.
반면, 외부 마이크(552)는, 예를 들어 자율주행차량(1000)의 외부에서 발생하는 다양한 소리를 딥러닝등 다양한 분석툴로 분석하여 안전 운행 등에 적절히 대응하기 위한 용도로 사용될 수가 있다.
참고로, 도 2에 도시된 부호는 도 1에 도시된 부호와 동일 또는 유사한 기능을 수행할 수 있으며, 도 2는 도 1과 비교하여 각 구성요소들의 상대적 위치 관계(자율주행차량(1000) 내부를 기준으로)를 보다 상세히 예시하였다.
도 3 내지 도 4는 본 발명의 일 실시예들 중 어느 하나에 의한 교통약자 유도 장치를 설명하기 위한 도면이다.
도 3 내지 도 4를 참조하면, 교통약자 유도 장치(2000)는 오브젝트 검출부(2100), 통신부(2200), 내비게이션(2300), 출력부(2400) 및 프로세서부(2500)를 포함할 수 있다.
오브젝트 검출부(2100)는 차량(1000) 주변의 객체를 인식하기 위한 것으로서, 카메라 센서(2110), 레이더 센서 및 라이다 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출부(2100)는 차량의 주변에 위치한 하차 예정자를 감지할 수 있다.
카메라 센서(2110)는 차량의 전방, 우측방, 유도 손잡이 끝단 중 적어도 하나에 설치될 수 있다.
카메라 센서(2110)는 차량(1000) 주변을 촬상하여 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.
카메라 센서(2110)는 차량(1000)의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서, 좌측 카메라 센서, 우측 카메라 센서 및 후방 카메라 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 차량(1000)의 프로세서부(2500)는 카메라 센서를 통해 촬상된 영상에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다. 또한, 차량(1000)의 프로세서부(2500)는 카메라 센서를 통해 촬상된 영상에 기초하여 점자 블록 및 점자 블록 중간 장애물 확인할 수 있다.
레이더 센서(2120는 차량의 전방, 우측방 중 적어도 하나에 배치될 수 있다. 레이더 센서(2120)는 카메라 센서(2110)가 장착된 위치 주변에 배치될 수 있다.
레이더 센서(2120)는 차량(1000) 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(2120)는 차량(1000)의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서, 좌측 레이더 센서, 우측 레이더 센서 및 후방 레이더 센서를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 차량(1000)의 프로세서부(2500)는 레이더 센서(2120)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다. 차량(1000)의 프로세서부(2500)는 레이더 센서(2120)를 통해 점자 블록 사이의 장애물 확인할 수 있다.
라이다 센서(2130)는 차량(1000) 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량(1000) 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Horizontal Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(2130)는 차량(1000)의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(2130), 상부 라이다 센서(2130) 및 후방 라이다 센서(2130)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 차량(1000)의 프로세서부(2500)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 차량(1000)의 프로세서부(2500)는 라이다 센서(2130)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
카메라 센서(2110), 레이더 센서(2120) 및 라이다 센서(2130)뿐만 아니라, 오브젝트 검출부(2100)는 초음파 센서를 더 포함할 수도 있으며, 이와 함께 차량(1000)의 주변 객체를 검출하기 위한 다양한 형태의 센서가 오브젝트 검출부(2100)에 더 채용될 수도 있다.
오브젝트 검출부(2100)는 카메라 센서(2100)를 통해 대상 물체 분류(차량, 보행자, 자전거, 오토바이)를 수행할 수 있고, 대상 물체 정보(상대거리, 상대속도, 물체 크기)를 검출할 수 있다.
통신부(2200)는 하나 이상의 송수신기를 포함할 수 있으며, 상기 하나 이상의 송수신기를 통해 하나 이상의 다른 장치로부터 본 명세에 개시된 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기는 상기 프로세서부(2500)와 연결될 수 있고, 무선 신호를 전송 및/또는 수신할 수 있다. 예를 들어, 상기 프로세서부(2500) 내 적어도 하나의 프로세서는 하나 이상의 송수신기가 적어도 하나의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 상기 프로세서부(2500)는 하나 이상의 송수신기가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기는 하나 이상의 안테나와 연결될 수 있고, 하나 이상의 송수신기는 하나 이상의 안테나를 통해 다른 장치(들)과 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송 및/또는 수신하도록 설정될 수 있다
네비게이션(2300)은 네비게이션 정보를 제공할 수 있다. 네비게이션에 대한 정보는, 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 주행 경로와 관련된 맵(map) 정보, 및 차량(1000)의 현재 위치 정보 중 적어도 하나를 포함할 수 있다. 네비게이션(2300)은 주행 경로에 관련된 맵 정보로써, 도로의 곡률 정보, 도로의 차선 수, 도로의 차선 크기, 예측 경로 등을 정보를 프로세서부(2500)로 제공할 수 있다.
네비게이션(2300)은 GPS(Global Positioning System)(2310)를 포함할 수 있고, 이를 통해 차량(1000)의 GPS 좌표를 획득할 수 있다. GPS(2310)은 정보 수신이 잘 될 수 있는 차량의 윈드실드 상단에 배치될 수 있다. 차량(1000)의 프로세서부(2500)는 네비게이션(2300)를 통해 현재 위치 정보 및 위치에 따른 번잡도 확인할 수 있다.
출력부(2400)는 주변 정보에 대한 안내 알림을 제공하는 스피커(2410) 및 유도 손잡이(2420)를 포함할 수 있다. 유도 손잡이의 끝부분에는 스피커(2410) 및 카메라센서(2110)가 배치될 수 있다.
프로세서부(2500)는 차량이 목적지에 진입하여 목적지 주변을 모니터링할 수 있다. 프로세서부(2500)는 상기 목적지가 정형화된 목적지인 경우, 도착 예상지점 번잡도, 점자 블록 위치 정보 중 적어도 하나의 정보를 수집할 수 있다. 프로세서부(2500)는 상기 목적지가 정형화되지 않은 목적지인 경우, 도착 예상지점 번잡도, 상호명, 문 위치 중 적어도 하나의 정보를 수집할 수 있다.
프로세서부(2500)는 모니터링 정보에 기초하여 목적지의 하차 지점을 판단할 수 있다. 프로세서부(2500)는 상기 목적지가 정형화된 목적지인 경우, 상기 목적지의 점자 블록 사이에 장애물 여부를 판단할 수 있다. 프로세서부(2500)는 상기 장애물이 없는 경우, 상기 하차 지점에 차량이 정차하는 것으로 판단할 수 있다. 이때, 교통약자 특히 시각장애인들의 목적지는 하차 지점으로부터 목적지 반경 1 ~ 2m 내외로 정의 될 수 있다.
한편, 프로세서부(2500)는 상기 목적지가 정형화되지 않은 목적지의 점자 블록 유무를 판단할 수 있다. 프로세서부(2500)는 상기 목적지에 점자 블록이 있는 경우, 점자 블록과 하차 지점과의 거리가 기 설정된 거리 이내인지 판단할 수 있다.
프로세서부(2500)는 교통약자가 판단된 하차 지점에서 하차 시 상기 유도손잡이를 차량 외부로 이동하도록 제어할 수 있다. 프로세서부(2500)는 하차 지점의 점자 블록 위치를 확인하는 경우, 확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어할 수 있다.
프로세서부(2500)는 상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내인 경우, 상기 하차 지점의 점자 블록 위치를 확인하고, 확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어할 수 있다.
한편, 프로세서부(2500)는 상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내가 아닌 경우, 상기 하차 지점의 점자 블록을 무시하고, 상기 판단된 하차 지점으로 상기 유도손잡이를 차량 외부로 이동하도록 제어할 수 있다.
도 5는 본 발명의 일 실시예들에 따른 교통 약자에 대응하는 점자 블록 시스템을 설명하기 위한 도면이다.
도 5를 참조하면, 교통 약자에 대응하는 점자 블록 시스템은 무게 감지 센서(3100), 자이로 센서(3200), 스피커(3300), 카메라 센서(3400), 통신부(미도시) 등을 포함할 수 있다.
무게 감지 센서(3100)는 점자 블록 하단 부분에 배치될 수 있다. 무게 감지 센서(3100)는 점자 블록에 가해지는 물리적인 무게를 감지할 수 있다.
자이로 센서(3200)는 점자 블록 중앙 부분에 배치될 수 있다. 자이로 센서(3200)는 점자 블록에 가해지는 힘에 의해 기울어지는 경우, 물리적인 기울기를 감지할 수 있다.
스피커(3300) 및 카메라(3400)는 점자 블록이 설치된 장소의 주변에 설치할 수 있다. 스피커(3300)는 점자 블록에 인접한 주변 정보에 대한 안내 알림을 제공할 수 있다. 카메라(3400)는 점자 블록에 근접하는 교통약자의 정보를 확인할 수 있다.
이때, 교통 약자는 교통수단을 이용하거나 도로를 다닐 때 불편을 느끼는 사람일 수 있다. 예를 들어, 교통약자에는 신체 장애인, 임산부, 영유아, 어린이 및 청소년 및 노인 등을 포함할 수 있다. 신체 장애인에는 시각 장애인, 청각 장애인 등을 포함할 수 있다. 또한, 교통약자에는 유모차 동반자, 휠체어 탑승자 등을 더 포함할 수 있으나, 이에 한정되는 것은 아니다.
통신부(미도시)는 점자 블록에 물리적인 신호 감지 시 스피커 또는 이어폰으로 시각 장애인에게 청각 피드백을 전송할 수 있다.
도 6 내지 도 7은 본 발명의 일 실시예들에 따른 교통약자 유도 동작을 설명하기 위한 도면이다.
도 6을 참조하면, 차량이 정형화된 목적지(4000) 근처로 이동하여 차량 전면에 탑재된 카메라 센서(2110), 레이더 센서(2120)가 동작하며, 주변의 번잡도 및 점자 블록 유무 및 위치 파악할 수 있다. 주변의 번잡도는 목적지 근처의 사람 및 장애물의 정도에 의해 변경될 수 있다.
차량은 점자 블록이 존재하는 경우, 점자 블록의 위치 파악 시 주변 장애물에 의한 끊어짐 발생 구역을 파악할 수 있다. 차량은 점자 블록에서 점형 형태의 점자 블록과 선형 형태의 점자 블록을 구분할 수 있다. 점형 형태의 점자 블록은 교통약자에게 정지, 대기, 위험 알림을 제공하기 위한 점자 블록일 수 있다. 선형 형태의 점자 블록은 교통약자에게 방향을 유도하기 위한 점자 블록일 수 있다.
이후, 차량은 주변 장애물에 의한 점자 블록 끊어짐 발생 지역을 제외한 지점에서 정차할 수 있다.
차량은 차문이 열리면서 유도 손잡이(2420)가 시각 장애인일 경우 점자 블록 위치(4100)로 안내할 수 있다. 차량은 유도 손잡이(2420)의 끝부분에 배치된 카메라 센서를 이용해 유도 손잡이(2420)를 점자 블록(3000) 위치까지 이동하여 차량 하차 방향을 교통약자에게 제공할 수 있다. 이와 함께, 차량은 필요시 스피커를 통한 주변 장애물 정보를 음성으로 안내할 수 있다.
차량은 정형화된 목적지(4000)의 배치되는 점자 블록 시스템과 연계될 수 있다. 정형화된 목적지(4000)는 버스정류장, 지하철 정류장 등 대중교통을 이용하기 위한 장소일 수 있으나, 이에 한정하지 않는다.
예를 들어, 차량이 버스 정류장의 점자 블록 시스템과 연결되는 경우를 설명하면, 차량이 유도 손잡이(2420)를 통해 점자 블록까지 교통약자를 안내한 이후, 교통 약자가 점자 블록에 서 있을 때, 버스 정류장의 점자 블록 시스템은 버스정류장 내 카메라 센서를 통해 패턴 분석/이미지 분석 등 알고리즘을 이용하여 교통 약자를 판단할 수 있다. 이후, 버스 정류장의 점자 블록 시스템은 교통약자가 이어폰을 착용하지 않았을 경우 스피커를 통해, 정류장 및 방향 정보를 제공할 수 있다.
버스 정류장의 점자 블록 시스템은 교통약자가 이어폰을 착용하지 않고 주변에 스피커가 없을 경우, 휴대폰으로 정류장 및 방향 정보를 제공할 수 있다.
버스 정류장의 점자 블록 시스템은 교통약자가 이어폰을 착용했을 경우, 휴대폰과의 통신을 통해 이어폰으로 정류장 및 방향 정보 제공할 수 있다. 이때, 교통 약자의 휴대폰과 이어폰은 페어로 동작할 수 있다.
예를 들어, 차량이 지하철 정류장의 점자 블록 시스템과 연결되는 경우를 설명하면, 교통 약자가 점자 블록에 서 있을 때, 지하철 정류장의 점자 블록 시스템은 지하철 정류장 내 카메라 센서를 통해 패턴 분석/이미지 분석 등 알고리즘을 이용하여 교통 약자를 판단할 수 있다.
이후, 지하철 정류장의 점자 블록 시스템은 스피커, 휴대폰 그리고 이어폰을 통해 현재 역 및 다음 역 정보 상/하행 행선지 정보 제보를 교통 약자에게 제공할 수 있다.
도 7을 참조하면, 차량이 정형화되지 않은 목적지(5000) 근처로 이동하여 차량 전면에 탑재된 카메라 센서(2410) 및 레이더 센서(2420)가 동작하며, 특정 목적지 상호명, 문 위치(5100)를 파악할 수 있다. 차량은 GPS의 위치 정보 및 내비게이션을 활용한 주변 상호명을 파악할 수 있다.
차량은 목적지 근방에 점자 블록이 있을 경우, 해당 위치로 안내할 수 있다. 예를 들어, 차량은 목적지 근방 50cm 이내에 점자 블록이 있을 경우, 해당 위치로 안내할 수 있다. 하지만, 차량은 목적지 근처에 점자 블록이 있더라도, 특정 거리 이상(50cm이상)이 될 경우, 차량은 점자 블록을 무시하고 목적지 위주로 안내할 수 있다.
차량이 특정 목적지(5000)에 정차하는 경우, 카메라 센서를 이용하여 정차 위치에서 특정 목적지(5000)를 재확인하여 간판, 건물내 상호명, 문 위치 등을 확인할 수 있다. 차량은 GPS의 위치 정보 및 내비게이션 정보를 활용하여 하차 지점을 설정할 수 있다.
예를 들어, 주변 점자 블록이 특정 목적지(5000)의 하차 지점 기준 50cm 내 있을 경우, 차량은 특정 목적지(5000)의 위치로 유도 손잡이(2420)를 이동시킬 수 있다. 한편, 주변 점자 블록이 특정 목적지(5000)의 하차 지점 기준 50cm 내에 없을 경우, 특정 목적지(5000)의 입구 앞으로 유도 손잡이(2420)를 이동시킬 수 있다.
예를 들어, 차량의 유도 손잡이(2420)가 동작하는 경우, 유도 손잡이(2420) 끝 부분에 스피커를 이용한 해당 상호명 및 위치 안내 보조 기능이 동작할 수 있다.
차량은 차문이 열리면서 유도 손잡이(2420)가 시각 장애인일 경우 점자 블록 위치로 안내할 수 있다. 차량은 유도 손잡이(2420)의 끝부분에 배치된 카메라 센서를 이용해 유도 손잡이(2420)를 점자 블록 위치까지 이동하여 차량 하차 방향을 교통약자에게 제공할 수 있다. 이와 함께, 차량은 필요시 스피커를 통한 주변 장애물 정보를 음성으로 안내할 수 있다.
차량은 특정 목적지(5000)에 배치되는 점자 블록 시스템과 연계될 수 있다. 이때, 특정 목적지(5000)는 주변에 점자 블록이 있는 장소일 수 있다.
예를 들어, 차량이 특정 목적지(5000)의 점자 블록 시스템과 연결되는 경우를 설명하면, 특정 목적지(5000)의 점자 블록 시스템은 카메라 센서를 통해 패턴 분석/이미지 분석 등 알고리즘을 이용하여 교통 약자를 판단할 수 있다.
이후, 특정 목적지(5000)의 점자 블록 시스템은 휴대폰 그리고 이어폰을 통해 주변 정보 와 목적지 방향 정보 알림을 교통 약자에게 제공할 수 있다.
도 8은 본 발명의 일 실시예들에 따른 정형화된 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 8을 참조하면, 본 발명의 교통약자 유도 장치(2000)는 차량 진입 중 카메라 센서(2110), 레이더 센서(2120)를 이용하여 주변 모니터링을 수행할 수 있다(S810). 교통약자 유도 장치는 도착 예상지점 번잡도, 점자 블록 위치 정보 등을 수집할 수 있다.
상기 S810 단계 이후, 교통약자 유도 장치(2000)는 점자 블록 사이에 장애물이 있는지 판단할 수 있다(S820).
상기 S820 단계 이후, 교통약자 유도 장치(2000)는 점자 블록 사이에 장애물이 있는 경우(S820의 예), 주변 모니터링을 수행하여 장애물이 없는 곳으로 차량이 이동하도록 제어할 수 있다(S825).
한편, 상기 S820 단계 이후, 교통약자 유도 장치(2000)는 점자 블록 사이에 장애물이 없는 경우(S820의 아니오), 차량 정차 후 측면 카메라 센서(2110), 레이더 센서(2120)를 이용하여 주변 모니터링을 수행할 수 있다(S830).
상기 S830 단계 이후, 교통약자 유도 장치(2000)는 정차한 위치의 점자 블록 위치를 확인할 수 있다 (S840).
상기 S840 단계 이후, 교통약자 유도 장치(2000)는 차문이 열림과 동시에 유도 손잡이(2420)를 확인한 점자 블록의 위치로 이동할 수 있다(S850).
도 9는 본 발명의 일 실시예들에 따른 정형화되지 않은 목적지에서의 교통약자 유도 방법을 도시한 플로우차트이다.
도 9를 참조하면, 본 발명의 교통약자 유도 장치(2000)는 차량 진입 중 카메라 센서(2110), 레이더 센서(2120)를 이용하여 주변 모니터링을 수행할 수 있다(S910). 교통약자 유도 장치(2000)는 도착 예상지점 번잡도, 상호명, 문 위치, 점자 블록 유무 등의 정보 수집할 수 있다.
상기 S910 단계 이후, 차량이 내비게이션 정보를 이용하여 목적지 근처로 이동하면(S920), 교통약자 유도 장치(2000)는 목적지에 점자 블록 유무를 판단할 수 있다(S930).
상기 S930 단계 이후, 목적지에 점자 블록이 없는 경우(S930의 아니오), 교통약자 유도 장치(2000)는 목적지 하차 지점 근처 위치로 유도손잡이를 이동시키고 알림을 제공할 수 있다(S935).
한편, 상기 S930 단계 이후, 목적지에 점자 블록이 있는 경우(S930의 예), 교통약자 유도 장치(2000)는 점자 블록과 목적지의 하자지점과의 거리가 50cm 미만인지 판단할 수 있다(S940).
상기 S940 단계 이후, 점자 블록과 목적지 하자지점과의 거리가 50cm 미만인 경우(S940의 예), 교통약자 유도 장치(2000)는 목적지 하차 지점 근처 점자 블록 위치로 유도손잡이를 이동시키고 알림을 제공할 있다(S950).
한편, 상기 S940 단계 이후, 점자 블록과 목적지 하자지점과의 거리가 50cm 미만이 아닌 경우(S940의 아니오), 교통약자 유도 장치(2000)는 점자 블록을 무시할 수 있다(S960). 이후, 교통약자 유도 장치(2000)는 목적지 하차 지점 근처 위치로 유도손잡이를 이동시키고 알림을 제공할 수 있다.
도 10은 본 발명의 일 실시예들에 따른 점자 블록 시스템 동작 방법을 도시한 플로우차트이다.
도 10을 참조하면, 점자 블록 시스템은 점자 블록(3000)을 통해 사람의 진입을 감지할 수 있다(S1010). 점자 블록 시스템은 자이로 센서(200), 무게 센서(3100)를 통해 사람의 진입 여부를 감지할 수 있다.
상기 S1010 단계 이후, 점자 블록 시스템은 감지한 사람이 시각 장애인인지 판단할 수 있다(S1020).
상기 S1020 단계 이후, 감지한 사람이 시각 장애인이 아닌 경우(S1020의 아니오), 점자 블록 시스템은 시각 장애인에게 청각 피드백을 제공하지 않을 수 있다(S1025).
한편, 상기 S1020 단계 이후, 감지한 사람이 시각 장애인인 경우(S1020의 예), 점자 블록 시스템은 시각 장애인이 휴대폰 및 이어폰의 사용 여부를 판단할 수 있다(S1030).
상기 S1030 단계 이후, 시각 장애인이 휴대폰 및 이어폰의 사용하지 않는 경우(S1030의 아니오), 점자 블록 시스템은 시각 장애인에게 스피커를 통해 정보를 제공할 수 있다.
한편, 상기 S1030 단계 이후, 시각 장애인이 휴대폰 및 이어폰의 사용하는 경우(S1030의 예), 점자 블록 시스템은 휴대폰 및 이어폰으로 청각 정보를 제공할 수 있다(S1040).
즉, 본 발명의 기술적 사상은, 자율주행차량 전체에도 적용 가능하며 또는 자율주행차량 내부의 일부 구성에만 적용될 수도 있다. 본 발명의 권리범위는 특허청구범위에 기재된 사항에 따라 결정되어야 한다.
본 발명의 또 다른 양태(aspect)로서, 앞서 설명한 제안 또는 발명의 동작이 “컴퓨터”(시스템 온 칩(system on chip; SoC) 또는 마이크로 프로세서 등을 포함하는 포괄적인 개념)에 의해 구현, 실시 또는 실행될 수 있는 코드 또는 상기 코드를 저장 또는 포함한 어플리케이션, 컴퓨터-판독 가능한 저장 매체 또는 컴퓨터 프로그램 제품(product) 등으로도 제공될 수 있으며, 이 또한 본 발명의 권리범위에 속한다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다.
따라서, 본 발명은 여기에 나타난 실시예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
Claims (20)
- 차량이 목적지에 진입하여 목적지 주변을 모니터링하고,
모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고,
교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하는
교통약자 유도 방법. - 제 1항에 있어서,
상기 차량이 목적지에 진입하여 상기 목적지 주변을 모니터링하는 것은
상기 목적지가 정형화된 목적지인 경우, 도착 예상지점 번잡도, 점자 블록 위치 정보 중 적어도 하나의 정보를 수집하는 것을 포함하는
교통약자 유도 방법. - 제 2항에 있어서,
상기 모니터링 정보에 기초하여 차량이 상기 목적지의 하차 지점을 판단하는 것은
상기 목적지의 점자 블록 사이에 장애물 여부를 판단하고,
상기 장애물이 없는 경우, 상기 하차 지점에 차량이 정차하는 것으로 판단하는 것을 포함하는
교통약자 유도 방법. - 제 3항에 있어서,
상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은
상기 하차 지점의 점자 블록 위치를 확인하고,
확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하는
교통약자 유도 방법. - 제 1항에 있어서,
상기 차량이 목적지에 진입하여 상기 목적지 주변을 모니터링하는 것은
상기 목적지가 정형화되지 않은 목적지인 경우, 도착 예상지점 번잡도, 상호명, 문 위치 중 적어도 하나의 정보를 수집하는 것을 포함하는
교통약자 유도 방법. - 제 5항에 있어서,
상기 모니터링 정보에 기초하여 차량이 상기 목적지의 하차 지점을 판단하는 것은
상기 목적지가 정형화되지 않은 목적지의 점자 블록 유무를 판단하는 것을 포함하는
교통약자 유도 방법. - 제 6항에 있어서,
상기 목적지에 점자 블록이 있는 경우, 점자 블록과 하차 지점과의 거리가 기 설정된 거리 이내인지 판단하는 것을 더 포함하는
교통약자 유도 방법. - 제 7항에 있어서,
상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은
상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내인 경우, 상기 하차 지점의 점자 블록 위치를 확인하고,
확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하는
교통약자 유도 방법. - 제 7항에 있어서,
상기 교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것은
상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내가 아닌 경우, 상기 하차 지점의 점자 블록을 무시하고,
상기 판단된 하차 지점으로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하는
교통약자 유도 방법. - 컴퓨터 판독 가능한 저장 매체에 있어서,
상기 저장 매체는 실행될 때 적어도 하나의 프로세서로 하여금 동작들을 수행하도록 하는 지시들을 포함하는 적어도 하나의 프로그램 코드를 저장하고,
상기 동작들은:
차량이 목적지에 진입하여 목적지 주변을 모니터링하고,
모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고,
교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 것을 포함하는
저장 매체. - 차량 외부를 모니터링하는 오브젝트 검출부;
차량 외부로 돌출되는 유도손잡이를 포함하는 출력부; 및
상기 오브젝트 검출부, 출력부 중 적어도 하나를 제어하는 프로세서부를 포함하고,
상기 프로세서부는
차량이 목적지에 진입하여 목적지 주변을 모니터링하고,
모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고,
교통약자가 판단된 하차 지점에서 하차 시 상기 유도손잡이를 차량 외부로 이동하도록 제어하는
교통약자 유도 장치. - 제 11항에 있어서,
상기 프로세서부는
상기 목적지가 정형화된 목적지인 경우, 도착 예상지점 번잡도, 점자 블록 위치 정보 중 적어도 하나의 정보를 수집하는
교통약자 유도 장치. - 제 12항에 있어서,
상기 프로세서부는
상기 목적지의 점자 블록 사이에 장애물 여부를 판단하고,
상기 장애물이 없는 경우, 상기 하차 지점에 차량이 정차하는 것으로 판단하는
교통약자 유도 장치. - 제 13항에 있어서,
상기 프로세서부는
상기 하차 지점의 점자 블록 위치를 확인하고,
확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는
교통약자 유도 장치. - 제 11항에 있어서,
상기 프로세서부는
상기 목적지가 정형화되지 않은 목적지인 경우, 도착 예상지점 번잡도, 상호명, 문 위치 중 적어도 하나의 정보를 수집하는
교통약자 유도 장치. - 제 15항에 있어서,
상기 프로세서부는
상기 목적지가 정형화되지 않은 목적지의 점자 블록 유무를 판단하는
교통약자 유도 장치. - 제 16항에 있어서,
상기 프로세서부는
상기 목적지에 점자 블록이 있는 경우, 점자 블록과 하차 지점과의 거리가 기 설정된 거리 이내인지 판단하는
교통약자 유도 장치. - 제 17항에 있어서,
상기 프로세서부는
상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내인 경우, 상기 하차 지점의 점자 블록 위치를 확인하고,
확인된 점자 블록 위치로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는
교통약자 유도 장치. - 제 17항에 있어서,
상기 프로세서부는
상기 점자 블록과 상기 하차 지점과의 거리가 기 설정된 거리 이내가 아닌 경우, 상기 하차 지점의 점자 블록을 무시하고,
상기 판단된 하차 지점으로 상기 유도손잡이를 차량 외부로 이동하도록 제어하는
교통약자 유도 장치. - 차량에 있어서,
주변 오브젝트를 감지하기 위한 적어도 하나 이상의 센서;
청각 피드백을 출력하기 위한 적어도 하나 이상의 스피커; 그리고
차량이 목적지에 진입하여 목적지 주변을 모니터링하고,
모니터링 정보에 기초하여 목적지의 하차 지점을 판단하고,
교통약자가 판단된 하차 지점에서 하차 시 유도손잡이를 차량 외부로 이동하도록 제어하는 교통약자 유도 장치를 포함하는,
차량.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220165055A KR20240081709A (ko) | 2022-11-30 | 2022-11-30 | 교통약자 유도 장치 및 방법 |
US18/382,660 US20240173179A1 (en) | 2022-11-30 | 2023-10-23 | Apparatus and method for guiding the transportation vulnerable |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220165055A KR20240081709A (ko) | 2022-11-30 | 2022-11-30 | 교통약자 유도 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240081709A true KR20240081709A (ko) | 2024-06-10 |
Family
ID=91482471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220165055A KR20240081709A (ko) | 2022-11-30 | 2022-11-30 | 교통약자 유도 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240081709A (ko) |
-
2022
- 2022-11-30 KR KR1020220165055A patent/KR20240081709A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200160724A1 (en) | Vehicle operation assistance | |
US9881503B1 (en) | Vehicle-to-pedestrian-communication systems and methods for using the same | |
US20180144636A1 (en) | Distracted driver detection, classification, warning, avoidance system | |
JP5863233B2 (ja) | 運転者注視方向連動の前方衝突危険警報システム、その方法及びそれを利用した車両 | |
CN111830859B (zh) | 车辆远程指示系统 | |
JP2014019390A (ja) | 緊急退避装置 | |
KR102184598B1 (ko) | 자율주행차량의 운전자 응급상황발생판단에 기반한 주행예측 및 안전주행시스템 | |
CN111746389A (zh) | 车辆控制系统 | |
JP5892038B2 (ja) | 運転支援装置 | |
KR20240081709A (ko) | 교통약자 유도 장치 및 방법 | |
KR20230116122A (ko) | 차량, 차량 충돌방지 시스템 및 충돌방지 방지 방법 | |
US20240173179A1 (en) | Apparatus and method for guiding the transportation vulnerable | |
JP2018144569A (ja) | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム | |
KR20240034476A (ko) | 교통약자에 대응하는 차량 도착 알림 장치 및 방법 | |
EP4393746A2 (en) | Device and method for guiding boarding/alighting of vehicle | |
KR20240081111A (ko) | 차량 도어 손잡이 유도 장치 및 방법 | |
JP2020166715A (ja) | 情報処理システム、移動体、情報処理方法、及びプログラム | |
JP7469358B2 (ja) | 交通安全支援システム | |
JP7469359B2 (ja) | 交通安全支援システム | |
KR102645769B1 (ko) | 주변 객체의 안전을 보조하는 차량 안전 지원 시스템 | |
WO2024203053A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び情報処理システム | |
KR102568294B1 (ko) | 자율주행 차량의 긴급 경로 생성 시스템 | |
KR20230055840A (ko) | 자율 주행 차량을 제어하는 방법 및 장치 | |
KR20240059809A (ko) | 후방 위험 주행 차량 회피 방법 및 장치 | |
KR20230087671A (ko) | 오브젝트 충돌 방지 방법 및 장치 |