KR20210040947A - 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 - Google Patents

정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 Download PDF

Info

Publication number
KR20210040947A
KR20210040947A KR1020217002229A KR20217002229A KR20210040947A KR 20210040947 A KR20210040947 A KR 20210040947A KR 1020217002229 A KR1020217002229 A KR 1020217002229A KR 20217002229 A KR20217002229 A KR 20217002229A KR 20210040947 A KR20210040947 A KR 20210040947A
Authority
KR
South Korea
Prior art keywords
unit
vehicle
processing
information processing
control unit
Prior art date
Application number
KR1020217002229A
Other languages
English (en)
Inventor
히로시 이치키
Original Assignee
소니 세미컨덕터 솔루션즈 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 세미컨덕터 솔루션즈 가부시키가이샤 filed Critical 소니 세미컨덕터 솔루션즈 가부시키가이샤
Publication of KR20210040947A publication Critical patent/KR20210040947A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/10Providing two-dimensional and co-ordinated display of distance and direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4056Means for monitoring or calibrating by simulation of echoes specially adapted to FMCW
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

센서의 검출 정보를 처리하는 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치를 제공한다. 정보 처리 장치는, FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부와, 다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부를 구비한다. 상기 레이더는 차량에 탑재하여 사용되고, 상기 다른 센서는 동일한 차량의 차량 탑재 센서이다. 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 있어서의 연산 처리의 연산 영역 또는 연산 정밀도 중 적어도 어느 것을 제어한다.

Description

정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
본 명세서에서 개시하는 기술은, 주로 외계를 인식하는 센서의 검출 정보를 처리하는 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치에 관한 것이다.
자동 운전이나 ADAS(Advanced Driver Assistance System)의 실현을 위해서, 다른 차량이나 사람, 레인 등, 다양한 물체를 검출할 필요가 있고, 또한, 날씨 좋은 때의 낮에 한하지 않고, 우천 시나 야간 등 여러가지 환경에서 물체를 검출할 필요가 있다. 이 때문에, 카메라, 밀리미터파 레이더, 레이저 레이더 등, 종류가 다른 많은 외계 인식 센서가 차량에 탑재되기 시작하고 있다. 이 중, 밀리미터파 레이더는, 야간, 안개나 강우, 역광 등, 가시광을 포착하는 카메라에 있어서 악 환경 하에서도 주변 차량이나 자전거 등 등 전파를 반사하는 장애물을 검출할 수 있다. 즉, 밀리미터파 레이더는, 카메라의 약점을 보충할 수 있는, ADAS의 중요한 기술이다.
종래부터, 주파수 변조된 연속파인 FM-CW(Frequency Modulated-Continuous Wave)를 레이더파로서 사용하는 FMCW 방식이 알려져 있다. FMCW 방식의 레이더 장치는, 예를 들어, 안테나를 통하여 송신된 레이더파에 대한 타깃으로부터의 반사파를 수신 신호로서 수신하면, 수신 신호와 송신 신호를 혼합하여 주파수 변환을 행하고, 송신 신호와 수신 신호의 차분 주파수를 가진 비트 신호를 검출하면 A/D 변환(Analog to Digital Conversion)하고, A/D 변환 후의 데이터열에 대하여 FFT(Fast Fourier Transform) 해석을 행함으로써, 타깃과의 사이의 상대 거리, 상대 속도 등을 계측한다. 그런데, FMCW 방식은, 보행자와 자전거 등 속도가 다른 타깃이 근접하면, 한쪽을 간과해 버린다는 문제가 있다.
그래서, 근년에는, 밀리미터파 신호의 주파수가 시간의 경과와 함께 연속적으로 또한 고속으로 증가하거나 또는 감소하는 처프 신호를 레이더파로 하는 FCM(Fast Chirp Modulation) 방식의 레이더 장치(예를 들어, 특허문헌 1을 참조)가 주목받고 있다. FCM 방식의 레이더 처리에 의하면, 밀리미터파 신호의 주파수 변조 속도를 높임으로써 거리 분해능이나 대상물의 속도 검지를 확장할 수 있다는 장점이 있다.
FCM 방식의 레이더 장치에 있어서도, FMCW 방식과 마찬가지로, 수신 신호와 송신 신호를 혼합하여 주파수 변환을 행하고, 송신 신호와 수신 신호의 차분 주파수를 가진 비트 신호를 검출하면 A/D 변환하고, A/D 변환 후의 데이터열에 대하여 FFT 해석이 행하여진다. 단, FCM 방식에서는, 예를 들어, 거리 방향을 종축으로 하고, 처프 신호의 송신수를 횡축으로 한 2차원 FFT 해석을 행함으로써, 타깃과의 사이의 상대 거리, 상대 속도 등이 계측된다.
일본 특허 공개 제2016-3873호 공보
본 명세서에서 개시하는 기술의 목적은, 주로 외계를 인식하는 센서의 검출 정보를 처리하는 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치를 제공하는 데 있다.
본 명세서에서 개시하는 기술의 제1 측면은,
FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부와,
다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
를 구비하는 정보 처리 장치이다.
상기 레이더는 차량에 탑재하여 사용되고, 상기 다른 센서는 동일한 차량의 차량 탑재 센서이다. 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 있어서의 연산 처리의 연산 영역 또는 연산 정밀도 중 적어도 어느 것을 제어한다. 또한, 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택한다.
또한, 본 명세서에서 개시하는 기술의 제2 측면은,
FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리 스텝과,
다른 센서의 검출 결과에 기초하여 상기 처리 스텝에 있어서의 연산 처리의 방식을 제어하는 제어 스텝
을 갖는 정보 처리 방법이다.
또한, 본 명세서에서 개시하는 기술의 제3 측면은,
FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부,
다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부,
로서 컴퓨터를 기능시키도록 컴퓨터 가독 형식으로 기술된 컴퓨터 프로그램이다.
제3 측면에 관계되는 컴퓨터 프로그램은, 컴퓨터 상에서 소정의 처리를 실현하도록 컴퓨터 가독 형식으로 기술된 컴퓨터 프로그램을 정의한 것이다. 바꾸어 말하면, 제3 측면에 관계되는 컴퓨터 프로그램을 컴퓨터에 인스톨함으로써, 컴퓨터 상에서는 협동적 작용이 발휘되어, 제1 측면에 관계되는 정보 처리 장치와 마찬가지의 작용 효과를 얻을 수 있다.
또한, 본 명세서에서 개시하는 기술의 제4 측면은,
차량에 탑재된 레이더 및 기타 차량 탑재 센서와,
상기 차량 탑재 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
를 구비하는 정보 처리 시스템이다.
단, 여기에서 말하는 「시스템」이란, 복수의 장치(또는 특정 기능을 실현하는 기능 모듈)가 논리적으로 집합된 물을 의미하고, 각 장치나 기능 모듈이 단일의 하우징 내에 있는지의 여부는 특별히 상관없다.
또한, 본 명세서에서 개시하는 기술의 제5 측면은,
이동체와,
상기 이동체에 탑재된 레이더 및 기타 센서와,
상기 기타 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부와,
상기 처리부에 의한 처리 결과에 기초하여 상기 이동체를 제어하는 이동체 제어부
를 구비하는 이동체 장치이다.
본 명세서에서 개시하는 기술에 의하면, 주로 외계를 인식하는 센서의 검출 정보를 처리하는 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치를 제공할 수 있다.
또한, 본 명세서에 기재된 효과는 어디까지나 예시이며, 본 발명의 효과는 이것에 한정되는 것은 아니다. 또한, 본 발명이, 상기 효과 이외에, 추가로 부가적인 효과를 발휘하는 경우도 있다.
본 명세서에서 개시하는 기술의 또다른 목적, 특징이나 이점은, 후술하는 실시 형태나 첨부하는 도면에 기초하는 보다 상세한 설명에 의해 밝혀질 것이다.
도 1은, 차량 제어 시스템(100)의 개략적인 기능의 구성예를 도시하는 블록도이다.
도 2는, 차량 탑재 레이더 장치의 처리 방식을 전환 제어하기 위한 정보 처리 시스템의 기능적 구성예를 도시한 도면이다.
도 3은, 정보 처리 시스템(100)이 실행하는 처리 수순의 일례를 도시한 흐름도이다.
도 4는, 정보 처리 시스템(100)이 실행하는 처리 수순의 다른 예를 도시한 흐름도이다.
도 5는, 정보 처리 시스템(100)이 실행하는 처리 수순의 또다른 예를 도시한 흐름도이다.
도 6은, 측정 대상의 우선도 판정 처리의 상세한 처리 수순을 도시한 흐름도이다.
도 7은, 측정 대상의 우선도 판정 처리의 상세한 처리 수순을 도시한 흐름도이다.
도 8은, 차량과 측정 대상의 충돌 시각을 계산하기 위한 처리 수순을 도시한 흐름도이다.
도 9는, 차량과 측정 대상의 충돌 시각을 추정하기 위한 처리 수순을 도시한 흐름도이다.
도 10은, 측정 대상의 정렬 결과를 표시한 화면의 구성예를 도시한 도면이다.
도 11은, 거리 연산을 생략한 측정 대상을 표시한 화면의 구성예를 도시한 도면이다.
도 12는, 도 11에 도시한 화면 상에서 측정 대상의 변경을 지시하는 모습을 도시한 도면이다.
도 13은, FCM 방식에 있어서의 송신 신호 및 수신 신호, 그리고 비트 신호를 도시한 도면이다.
이하, 도면을 참조하면서 본 명세서에서 개시하는 기술의 실시 형태에 대하여 상세하게 설명한다.
도 1은, 본 기술이 적용될 수 있는 이동체 제어 시스템의 일례인 차량 제어 시스템(100)의 개략적인 기능의 구성예를 도시하는 블록도이다.
또한, 이하, 차량 제어 시스템(100)이 마련되어 있는 차량을 다른 차량과 구별하는 경우, 자차 또는 자차량이라고 칭한다.
차량 제어 시스템(100)은 입력부(101), 데이터 취득부(102), 통신부(103), 차 내 기기(104), 출력 제어부(105), 출력부(106), 구동계 제어부(107), 구동계 시스템(108), 바디계 제어부(109), 바디계 시스템(110), 기억부(111), 및 자동 운전 제어부(112)를 구비한다. 입력부(101), 데이터 취득부(102), 통신부(103), 출력 제어부(105), 구동계 제어부(107), 바디계 제어부(109), 기억부(111), 및 자동 운전 제어부(112)는 통신 네트워크(121)를 통하여 서로 접속되어 있다. 통신 네트워크(121)는 예를 들어, CAN(Controller Area Network), LIN(Local Interconnect Network), LAN(Local Area Network), 또는, FlexRay(등록 상표) 등의 임의의 규격에 준거한 차량 탑재 통신 네트워크나 버스 등을 포함한다. 또한, 차량 제어 시스템(100)의 각 부는, 통신 네트워크(121)를 통하지 않고, 직접 접속되는 경우도 있다.
또한, 이하, 차량 제어 시스템(100)의 각 부가, 통신 네트워크(121)를 통하여 통신을 행하는 경우, 통신 네트워크(121)의 기재를 생략하는 것으로 한다. 예를 들어, 입력부(101)와 자동 운전 제어부(112)가 통신 네트워크(121)를 통하여 통신을 행하는 경우, 간단히 입력부(101)와 자동 운전 제어부(112)가 통신을 행한다고 기재한다.
입력부(101)는 탑승자가 각종 데이터나 지시 등의 입력에 사용하는 장치를 구비한다. 예를 들어, 입력부(101)는 터치 패널, 버튼, 마이크로폰, 스위치, 및 레버 등의 조작 디바이스, 그리고, 음성이나 제스처 등에 의해 수동 조작 이외의 방법으로 입력 가능한 조작 디바이스 등을 구비한다. 또한, 예를 들어, 입력부(101)는 적외선 혹은 기타 전파를 이용한 리모트 컨트롤 장치, 또는, 차량 제어 시스템(100)의 조작에 대응한 모바일 기기 혹은 웨어러블 기기 등의 외부 접속 기기여도 된다. 입력부(101)는 탑승자에 의해 입력된 데이터나 지시 등에 기초하여 입력 신호를 생성하고, 차량 제어 시스템(100)의 각 부에 공급한다.
데이터 취득부(102)는 차량 제어 시스템(100)의 처리에 사용하는 데이터를 취득하는 각종 센서 등을 구비하고, 취득한 데이터를, 차량 제어 시스템(100)의 각 부에 공급한다.
예를 들어, 데이터 취득부(102)는 자차의 상태 등을 검출하기 위한 각종 센서를 구비한다. 구체적으로는, 예를 들어, 데이터 취득부(102)는 자이로 센서, 가속도 센서, 관성 계측 장치(IMU), 및 액셀러레이터 페달의 조작량, 브레이크 페달의 조작량, 스티어링 휠의 조타각, 엔진 회전수, 모터 회전수, 혹은, 차륜의 회전 속도 등을 검출하기 위한 센서 등을 구비한다.
또한, 예를 들어, 데이터 취득부(102)는 자차의 외부의 정보를 검출하기 위한 각종 센서를 구비한다. 구체적으로는, 예를 들어, 데이터 취득부(102)는 ToF(Time Of Flight) 카메라, 스테레오 카메라, 단안 카메라, 적외선 카메라, 및 기타 카메라 등의 촬상 장치를 구비한다. 또한, 예를 들어, 데이터 취득부(102)는 날씨 또는 기상 등을 검출하기 위한 환경 센서, 및 자차 주위의 물체를 검출하기 위한 주위 정보 검출 센서를 구비한다. 환경 센서는, 예를 들어, 빗방울 센서, 안개 센서, 일조 센서, 눈 센서 등을 포함한다. 주위 정보 검출 센서는, 예를 들어, 초음파 센서, 밀리미터파 레이더, LiDAR(Light Detection and Ranging, Laser Imaging Detection and Ranging), 음파 탐지기 등을 포함한다.
또한, 예를 들어, 데이터 취득부(102)는 자차의 현재 위치를 검출하기 위한 각종 센서를 구비한다. 구체적으로는, 예를 들어, 데이터 취득부(102)는 GNSS(Global Navigation Satellite System) 위성으로부터의 GNSS 신호를 수신하는 GNSS 수신기 등을 구비한다.
또한, 예를 들어, 데이터 취득부(102)는 차 내의 정보를 검출하기 위한 각종 센서를 구비한다. 구체적으로는, 예를 들어, 데이터 취득부(102)는 운전자를 촬상하는 촬상 장치, 운전자의 생체 정보를 검출하는 생체 센서, 및 차실 내의 음성을 집음하는 마이크로폰 등을 구비한다. 생체 센서는, 예를 들어, 시트면 또는 스티어링 휠 등에 마련되어, 좌석에 앉아 있는 탑승자 또는 스티어링 휠을 잡고 있는 운전자의 생체 정보를 검출한다.
통신부(103)는 차 내 기기(104), 그리고, 차 밖의 여러가지 기기, 서버, 기지국 등과 통신을 행하여, 차량 제어 시스템(100)의 각 부로부터 공급되는 데이터를 송신하거나, 수신한 데이터를 차량 제어 시스템(100)의 각 부에 공급하거나 한다. 또한, 통신부(103)가 서포트하는 통신 프로토콜은, 특별히 한정되는 것은 아니며, 또한, 통신부(103)가 복수의 종류의 통신 프로토콜을 서포트하는 것도 가능하다.
예를 들어, 통신부(103)는 무선 LAN, Bluetooth(등록 상표), NFC(Near Field Communication), 또는, WUSB(Wireless USB) 등에 의해, 차 내 기기(104)와 무선 통신을 행한다. 또한, 예를 들어, 통신부(103)는 도시하지 않은 접속 단자(및 필요하면 케이블)를 통하여, USB(Universal Serial Bus), HDMI(High-Definition Multimedia Interface), 또는, MHL(Mobile High-definition Link) 등에 의해, 차 내 기기(104)와 유선 통신을 행한다.
또한, 예를 들어, 통신부(103)는 기지국 또는 액세스 포인트를 통하여, 외부 네트워크(예를 들어, 인터넷, 클라우드 네트워크 또는 사업자 고유의 네트워크) 상에 존재하는 기기(예를 들어, 애플리케이션 서버 또는 제어 서버)와의 통신을 행한다. 또한, 예를 들어, 통신부(103)는 P2P(Peer To Peer) 기술을 사용하여, 자차의 근방에 존재하는 단말기(예를 들어, 보행자 혹은 점포의 단말기, 또는, MTC(Machine Type Communication) 단말기)와의 통신을 행한다. 또한, 예를 들어, 통신부(103)는 차차간(Vehicle to Vehicle) 통신, 노차간(Vehicle to Infrastructure) 통신, 자차와 집 간(Vehicle to Home)의 통신, 및 보차간(Vehicle to Pedestrian) 통신 등의 V2X 통신을 행한다. 또한, 예를 들어, 통신부(103)는 비콘 수신부를 구비하여, 도로 상에 설치된 무선국 등으로부터 발신되는 전파 혹은 전자파를 수신하여, 현재 위치, 정체, 통행 규제 또는 소요 시간 등의 정보를 취득한다.
차 내 기기(104)는 예를 들어, 탑승자가 갖는 모바일 기기 혹은 웨어러블 기기, 자차에 반입되거나 혹은 설치되는 정보 기기, 및 임의의 목적지까지의 경로 탐색을 행하는 내비게이션 장치 등을 포함한다.
출력 제어부(105)는 자차의 탑승자 또는 차 밖에 대한 각종 정보의 출력을 제어한다. 예를 들어, 출력 제어부(105)는 시각 정보(예를 들어, 화상 데이터) 및 청각 정보(예를 들어, 음성 데이터) 중 적어도 하나를 포함하는 출력 신호를 생성하고, 출력부(106)에 공급함으로써, 출력부(106)로부터의 시각 정보 및 청각 정보의 출력을 제어한다. 구체적으로는, 예를 들어, 출력 제어부(105)는 데이터 취득부(102)의 다른 촬상 장치에 의해 촬상된 화상 데이터를 합성하여, 부감 화상 또는 파노라마 화상 등을 생성하고, 생성한 화상을 포함하는 출력 신호를 출력부(106)에 공급한다. 또한, 예를 들어, 출력 제어부(105)는 충돌, 접촉, 위험 지대에의 진입 등의 위험에 대한 경고음 또는 경고 메시지 등을 포함하는 음성 데이터를 생성하고, 생성한 음성 데이터를 포함하는 출력 신호를 출력부(106)에 공급한다.
출력부(106)는 자차의 탑승자 또는 차 밖에 대하여 시각 정보 또는 청각 정보를 출력하는 것이 가능한 장치를 구비한다. 예를 들어, 출력부(106)는 표시 장치, 인스트루먼트 패널, 오디오 스피커, 헤드폰, 탑승자가 장착하는 안경형 디스플레이 등의 웨어러블 디바이스, 프로젝터, 램프 등을 구비한다. 출력부(106)가 구비하는 표시 장치는, 통상의 디스플레이를 갖는 장치 이외에도, 예를 들어, 헤드업 디스플레이, 투과형 디스플레이, AR(Augmented Reality) 표시 기능을 갖는 장치 등의 운전자의 시야 내에 시각 정보를 표시하는 장치여도 된다.
구동계 제어부(107)는 각종 제어 신호를 생성하고, 구동계 시스템(108)에 공급함으로써, 구동계 시스템(108)의 제어를 행한다. 또한, 구동계 제어부(107)는 필요에 따라, 구동계 시스템(108) 이외의 각 부에 제어 신호를 공급하여, 구동계 시스템(108)의 제어 상태의 통지 등을 행한다.
구동계 시스템(108)은 자차의 구동계에 관계되는 각종 장치를 구비한다. 예를 들어, 구동계 시스템(108)은 내연 기관 또는 구동용 모터 등의 구동력을 발생시키기 위한 구동력 발생 장치, 구동력을 차륜에 전달하기 위한 구동력 전달 기구, 타각을 조절하는 스티어링 기구, 제동력을 발생시키는 제동 장치, ABS(Antilock Brake System), ESC(Electronic Stability Control), 그리고, 전동 파워스티어링 장치 등을 구비한다.
바디계 제어부(109)는 각종 제어 신호를 생성하고, 바디계 시스템(110)에 공급함으로써, 바디계 시스템(110)의 제어를 행한다. 또한, 바디계 제어부(109)는 필요에 따라, 바디계 시스템(110) 이외의 각 부에 제어 신호를 공급하여, 바디계 시스템(110)의 제어 상태의 통지 등을 행한다.
바디계 시스템(110)은 차체에 장비된 바디계의 각종 장치를 구비한다. 예를 들어, 바디계 시스템(110)은 키리스 엔트리 시스템, 스마트 키 시스템, 파워 윈도우 장치, 파워 시트, 스티어링 휠, 공조 장치, 및 각종 램프(예를 들어, 헤드 램프, 백 램프, 브레이크 램프, 방향 지시등, 포그 램프 등) 등을 구비한다.
기억부(111)는 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), HDD(Hard Disc Drive) 등의 자기 기억 디바이스, 반도체 기억 디바이스, 광 기억 디바이스, 및 광 자기 기억 디바이스 등을 구비한다. 기억부(111)는 차량 제어 시스템(100)의 각 부가 사용하는 각종 프로그램이나 데이터 등을 기억한다. 예를 들어, 기억부(111)는 다이내믹 맵 등의 3차원의 고정밀도 지도, 고정밀도 지도보다 정밀도가 낮고, 넓은 에어리어를 커버하는 글로벌 맵, 및 자차 주위의 정보를 포함하는 로컬 맵 등의 지도 데이터를 기억한다.
자동 운전 제어부(112)는 자율 주행 또는 운전 지원 등의 자동 운전에 관한 제어를 행한다. 구체적으로는, 예를 들어, 자동 운전 제어부(112)는 자차의 충돌회피 혹은 충격 완화, 차간 거리에 기초하는 추종 주행, 차속 유지 주행, 자차의 충돌 경고, 또는, 자차의 레인 일탈 경고 등을 포함하는 ADAS(Advanced Driver Assistance System)의 기능 실현을 목적으로 한 협조 제어를 행한다. 또한, 예를 들어, 자동 운전 제어부(112)는 운전자의 조작에 따르지 않고 자율적으로 주행하는 자동 운전 등을 목적으로 한 협조 제어를 행한다. 자동 운전 제어부(112)는 검출부(131), 자기 위치 추정부(132), 상황 분석부(133), 계획부(134), 및 동작 제어부(135)를 구비한다.
검출부(131)는 자동 운전의 제어에 필요한 각종 정보의 검출을 행한다. 검출부(131)는 차 외 정보 검출부(141), 차 내 정보 검출부(142), 및 차량 상태 검출부(143)를 구비한다.
차 외 정보 검출부(141)는 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차의 외부의 정보의 검출 처리를 행한다. 예를 들어, 차 외 정보 검출부(141)는 자차 주위의 물체의 검출 처리, 인식 처리, 및 추적 처리, 그리고, 물체까지의 거리의 검출 처리를 행한다. 검출 대상으로 되는 물체로는, 예를 들어, 차량, 사람, 장애물, 구조물, 도로, 신호기, 교통 표지, 도로 표시 등이 포함된다. 또한, 예를 들어, 차 외 정보 검출부(141)는 자차 주위의 환경의 검출 처리를 행한다. 검출 대상으로 되는 주위의 환경에는, 예를 들어, 날씨, 기온, 습도, 밝기, 및 노면의 상태 등이 포함된다. 차 외 정보 검출부(141)는 검출 처리의 결과를 나타내는 데이터를 자기 위치 추정부(132), 상황 분석부(133)의 맵 해석부(151), 교통 룰 인식부(152), 및 상황 인식부(153), 그리고, 동작 제어부(135)의 긴급 사태 회피부(171) 등에 공급한다.
차 내 정보 검출부(142)는 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 차 내의 정보의 검출 처리를 행한다. 예를 들어, 차 내 정보 검출부(142)는 운전자의 인증 처리 및 인식 처리, 운전자 상태의 검출 처리, 탑승자의 검출 처리, 및 차 내의 환경의 검출 처리 등을 행한다. 검출 대상으로 되는 운전자의 상태에는, 예를 들어, 몸 상태, 각성도, 집중도, 피로도, 시선 방향 등이 포함된다. 검출 대상으로 되는 차 내의 환경에는, 예를 들어, 기온, 습도, 밝기, 냄새 등이 포함된다. 차 내 정보 검출부(142)는 검출 처리의 결과를 나타내는 데이터를 상황 분석부(133)의 상황 인식부(153), 및 동작 제어부(135)의 긴급 사태 회피부(171) 등에 공급한다.
차량 상태 검출부(143)는 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차 상태의 검출 처리를 행한다. 검출 대상으로 되는 자차의 상태에는, 예를 들어, 속도, 가속도, 타각, 이상의 유무 및 내용, 운전 조작의 상태, 파워 시트의 위치 및 기울기, 도어록의 상태, 그리고, 기타 차량 탑재 기기의 상태 등이 포함된다. 차량 상태 검출부(143)는 검출 처리의 결과를 나타내는 데이터를 상황 분석부(133)의 상황 인식부(153), 및 동작 제어부(135)의 긴급 사태 회피부(171) 등에 공급한다.
자기 위치 추정부(132)는 차 외 정보 검출부(141), 및 상황 분석부(133)의 상황 인식부(153) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차의 위치 및 자세 등의 추정 처리를 행한다. 또한, 자기 위치 추정부(132)는 필요에 따라, 자기 위치의 추정에 사용하는 로컬 맵(이하, 자기 위치 추정용 맵이라고 칭한다)을 생성한다. 자기 위치 추정용 맵은, 예를 들어, SLAM(Simultaneous Localization and Mapping) 등의 기술을 사용한 고정밀도의 맵으로 된다. 자기 위치 추정부(132)는 추정 처리의 결과를 나타내는 데이터를 상황 분석부(133)의 맵 해석부(151), 교통 룰 인식부(152), 및 상황 인식부(153) 등에 공급한다. 또한, 자기 위치 추정부(132)는 자기 위치 추정용 맵을 기억부(111)에 기억시킨다.
상황 분석부(133)는 자차 및 주위의 상황의 분석 처리를 행한다. 상황 분석부(133)는 맵 해석부(151), 교통 룰 인식부(152), 상황 인식부(153), 및 상황 예측부(154)를 구비한다.
맵 해석부(151)는 자기 위치 추정부(132) 및 차 외 정보 검출부(141) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호를 필요에 따라서 사용하면서, 기억부(111)에 기억되어 있는 각종 맵의 해석 처리를 행하여, 자동 운전의 처리에 필요한 정보를 포함하는 맵을 구축한다. 맵 해석부(151)는 구축한 맵을, 교통 룰 인식부(152), 상황 인식부(153), 상황 예측부(154), 그리고, 계획부(134)의 루트 계획부(161), 행동 계획부(162), 및 동작 계획부(163) 등에 공급한다.
교통 룰 인식부(152)는 자기 위치 추정부(132), 차 외 정보 검출부(141), 및 맵 해석부(151) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차 주위의 교통 룰의 인식 처리를 행한다. 이 인식 처리에 의해, 예를 들어, 자차 주위의 신호의 위치 및 상태, 자차 주위의 교통 규제의 내용, 그리고, 주행 가능한 차선 등이 인식된다. 교통 룰 인식부(152)는 인식 처리의 결과를 나타내는 데이터를 상황 예측부(154) 등에 공급한다.
상황 인식부(153)는 자기 위치 추정부(132), 차 외 정보 검출부(141), 차 내 정보 검출부(142), 차량 상태 검출부(143), 및 맵 해석부(151) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차에 관한 상황의 인식 처리를 행한다. 예를 들어, 상황 인식부(153)는 자차의 상황, 자차 주위의 상황, 및 자차 운전자의 상황 등의 인식 처리를 행한다. 또한, 상황 인식부(153)는 필요에 따라, 자차 주위의 상황의 인식에 사용하는 로컬 맵(이하, 상황 인식용 맵이라고 칭한다)을 생성한다. 상황 인식용 맵은, 예를 들어, 점유 격자 지도(Occupancy Grid Map)로 된다.
인식 대상으로 되는 자차의 상황에는, 예를 들어, 자차의 위치, 자세, 움직임(예를 들어, 속도, 가속도, 이동 방향 등), 그리고, 이상의 유무 및 내용 등이 포함된다. 인식 대상으로 되는 자차 주위의 상황에는, 예를 들어, 주위의 정지 물체의 종류 및 위치, 주위의 동물체의 종류, 위치 및 움직임(예를 들어, 속도, 가속도, 이동 방향 등), 주위의 도로의 구성 및 노면의 상태, 그리고, 주위의 날씨, 기온, 습도, 및 밝기 등이 포함된다. 인식 대상으로 되는 운전자의 상태에는, 예를 들어, 몸 상태, 각성도, 집중도, 피로도, 시선의 움직임, 그리고, 운전 조작 등이 포함된다.
상황 인식부(153)는 인식 처리의 결과를 나타내는 데이터(필요에 따라, 상황 인식용 맵을 포함한다)를 자기 위치 추정부(132) 및 상황 예측부(154) 등에 공급한다. 또한, 상황 인식부(153)는 상황 인식용 맵을 기억부(111)에 기억시킨다.
상황 예측부(154)는 맵 해석부(151), 교통 룰 인식부(152) 및 상황 인식부(153) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 자차에 관한 상황의 예측 처리를 행한다. 예를 들어, 상황 예측부(154)는 자차의 상황, 자차 주위의 상황, 및 운전자의 상황 등의 예측 처리를 행한다.
예측 대상으로 되는 자차의 상황에는, 예를 들어, 자차의 거동, 이상의 발생, 및 주행 가능 거리 등이 포함된다. 예측 대상으로 되는 자차 주위의 상황에는, 예를 들어, 자차 주위의 동물체의 거동, 신호의 상태의 변화, 및 날씨 등의 환경의 변화 등이 포함된다. 예측 대상으로 되는 운전자의 상황에는, 예를 들어, 운전자의 거동 및 몸 상태 등이 포함된다.
상황 예측부(154)는 예측 처리의 결과를 나타내는 데이터를, 교통 룰 인식부(152) 및 상황 인식부(153)로부터의 데이터와 함께, 계획부(134)의 루트 계획부(161), 행동 계획부(162), 및 동작 계획부(163) 등에 공급한다.
루트 계획부(161)는 맵 해석부(151) 및 상황 예측부(154) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 목적지까지의 루트를 계획한다. 예를 들어, 루트 계획부(161)는 글로벌 맵에 기초하여, 현재 위치로부터 지정된 목적지까지의 루트를 설정한다. 또한, 예를 들어, 루트 계획부(161)는 정체, 사고, 통행 규제, 공사 등의 상황, 및 운전자의 몸 상태 등에 기초하여, 적절히 루트를 변경한다. 루트 계획부(161)는 계획한 루트를 나타내는 데이터를 행동 계획부(162) 등에 공급한다.
행동 계획부(162)는 맵 해석부(151) 및 상황 예측부(154) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 루트 계획부(161)에 의해 계획된 루트를 계획된 시간 내에서 안전하게 주행하기 위한 자차의 행동을 계획한다. 예를 들어, 행동 계획부(162)는 발진, 정지, 진행 방향(예를 들어, 전진, 후퇴, 좌회전, 우회전, 방향 전환 등), 주행 차선, 주행 속도, 및 추월 등의 계획을 행한다. 행동 계획부(162)는 계획한 자차의 행동을 나타내는 데이터를 동작 계획부(163) 등에 공급한다.
동작 계획부(163)는 맵 해석부(151) 및 상황 예측부(154) 등의 차량 제어 시스템(100)의 각 부로부터의 데이터 또는 신호에 기초하여, 행동 계획부(162)에 의해 계획된 행동을 실현하기 위한 자차 동작을 계획한다. 예를 들어, 동작 계획부(163)는 가속, 감속, 및 주행 궤도 등의 계획을 행한다. 동작 계획부(163)는 계획한 자차의 동작을 나타내는 데이터를, 동작 제어부(135)의 가감속 제어부(172) 및 방향 제어부(173) 등에 공급한다.
동작 제어부(135)는 자차의 동작 제어를 행한다. 동작 제어부(135)는 긴급 사태 회피부(171), 가감속 제어부(172), 및 방향 제어부(173)를 구비한다.
긴급 사태 회피부(171)는 차 외 정보 검출부(141), 차 내 정보 검출부(142), 및 차량 상태 검출부(143)의 검출 결과에 기초하여, 충돌, 접촉, 위험 지대에의 진입, 운전자의 이상, 차량의 이상 등의 긴급 사태의 검출 처리를 행한다. 긴급 사태 회피부(171)는 긴급 사태의 발생을 검출한 경우, 급정차나 급선회 등의 긴급 사태를 회피하기 위한 자차의 동작을 계획한다. 긴급 사태 회피부(171)는 계획한 자차의 동작을 나타내는 데이터를 가감속 제어부(172) 및 방향 제어부(173) 등에 공급한다.
가감속 제어부(172)는 동작 계획부(163) 또는 긴급 사태 회피부(171)에 의해 계획된 자차의 동작을 실현하기 위한 가감속 제어를 행한다. 예를 들어, 가감속 제어부(172)는 계획된 가속, 감속, 또는, 급정차를 실현하기 위한 구동력 발생 장치 또는 제동 장치의 제어 목표값을 연산하고, 연산한 제어 목표값을 나타내는 제어 명령을 구동계 제어부(107)에 공급한다.
방향 제어부(173)는 동작 계획부(163) 또는 긴급 사태 회피부(171)에 의해 계획된 자차의 동작을 실현하기 위한 방향 제어를 행한다. 예를 들어, 방향 제어부(173)는 동작 계획부(163) 또는 긴급 사태 회피부(171)에 의해 계획된 주행 궤도 또는 급선회를 실현하기 위한 스티어링 기구의 제어 목표값을 연산하고, 연산한 제어 목표값을 나타내는 제어 명령을 구동계 제어부(107)에 공급한다.
자동 운전이나 ADAS의 실현을 향해서, 보다 고정밀도의 외계 인식을 행하기 위해서, 카메라, 밀리미터파 레이더, 레이저 레이더 등, 종류가 다른 많은 외계 인식 센서가 차량에 탑재되기 시작하고 있다. 각 센서는, 검출 원리에도 의거하여, 장단점이 있다. 예를 들어, 가시광을 촬영하는 카메라는 암소에 취약하고, 전파의 반사를 검출하는 레이더는 사람이나 동물 등의 전파를 반사하기 어려운 물체에 취약하다. 레이더(밀리미터파 레이더), 카메라, 및 레이저 레이더(LiDAR)의 장단점을 이하의 표 1에 정리해 둔다. 동표 중에서, ◎은 최우수(높은 인식 정밀도를 갖는다), ○는 우수(양호한 인식 정밀도를 갖는다), △은 취약(인식 정밀도가 충분하지 않다)을 의미한다. 2개 이상의 센서를 조합하는 퓨전 기술을 이용함으로써, 각 센서의 특징을 살려서, 보다 고정밀도의 외계 인식을 실현할 수 있다.
Figure pct00001
밀리미터파 레이더에 관해서는, 밀리미터파 신호의 주파수 속도를 주기적으로 변조시키는 FMCW 방식이 주류인데, 주파수의 변조 속도를 높이는 FCM 방식이 주목받아 오고 있다. FCM 방식에서는, FMCW 방식과 마찬가지로, 수신 신호와 송신 신호를 혼합하여 주파수 변환을 행하고, 송신 신호와 수신 신호 사이의 차분 주파수를 가진 비트 신호를 검출하면 A/D 변환하고, A/D 변환 후의 데이터열에 대하여 FFT 해를 행한다. 따라서, 어느 방식이든, 동일한 레이더 장치의 구성으로 된다. FCM 방식에서는, 주파수가 연속적으로 또한 고속으로 증가 또는 감소하는 처프파를 생성하는 송신 신호와 측정 대상으로부터의 처프파의 반사파를 수신하여 얻어지는 수신 신호로부터 생성된 비트 신호의 주파수와 위상 변화에 기초하여 측정 대상과의 거리와 상대 속도를 검출한다. 도 13에, FCM 방식에 있어서의 송신 신호 및 수신 신호, 그리고 비트 신호를 도시하고 있다. 비교적 천천히 중심 주파수가 천이하는 FMCW 방식에 비해, FCM 방식에서는 보다 고속의 주파수 천이를 취함으로써, 비트 주파수에 있어서의 fBH와 fBL의 차를 크게 취할 수 있기 때문에, 속도 분해능이 우수하다는 특징이 있다. 처프 시간이, FMCW 방식에서는 약 밀리초 단위, FCW 방식에서는 약 마이크로초 단위이다. 또한, FCM 방식에서는 처프 속도가 고속이기 때문에, 도플러 주파수를 무시할 수 있기 때문에, 검지 거리를 계산하는 알고리즘이 간소해서, 멀티타깃의 인식력도 향상된다.
FCM 방식에 의하면, 거리 분해능이나 대상물의 속도 검지를 확장할 수 있는(즉, 물체 검출의 성능이 향상되는) 반면, 3차원 FFT 해석(혹은 1차원 FFT를 반복하는 3차원적인 처리, 또는 2차원 FFT 후에 3회째의 FFT 대신 방위각 추정을 행하는 처리)이 필요해서, 필요한 메모리와 연산량이 증가하기 때문에, 연산 회로의 비용이나 소비 전력이 증대할 것이 염려된다. 예를 들어 전기 자동차(Electric Vehicle: EV)의 경우, 에어컨 사용 시, EV 배터리의 충전량이 소정량 이하로 저감되었을 때 등에는 전력을 소비하므로 연산 회로에 의한 소비 전력을 억제해야 한다.
또한, 복수의 물체 검출 센서를 퓨전하는 퓨전 기술을 채용한 차량 탑재 제어 시스템에 있어서, 모든 피사체를 측정하고자 하면, 모든 센서에 있어서 충분한 측정 정밀도가 얻어지지 않는 경우가 있거나, 혹은 측정 정밀도를 유지하고자 하면, 필요한 피사체를 모두 측정할 수 없을(측정이 제때에 되지 않을) 가능성이 있다. 예를 들어, 레이더를 카메라와 퓨전 처리하는 경우, 카메라의 화상에 걸맞을 정도의 레이더 분해능이 요구되는데, 카메라의 시야각(FOV)은 넓기 때문에, 레이더의 연산 부하가 방대해진다. 차량 탑재 레이더는, 피사체의 거리나 상대 속도의 계측을 목적으로 하는데, 애당초 전방위에 걸쳐 고정밀도로 측정할 필요는 없다. 또한, 자차량의 주변에 복수의 피사체가 존재하는 경우, 주행 중에 각 피사체의 우선도는 시시각각 변화한다.
그래서, 본 명세서에서는, 상황에 따라서 레이더 장치의 처리 방식을 적응적으로 전환 제어하는 기술에 대해서, 이하에서 제안한다.
여기에서 말하는 레이더 장치의 처리 방식의 전환은, 기본적으로는, FCM 방식 등 특정 연산 방식에 있어서, 연산 영역이나 연산 정밀도를 선택하는 것을 포함한다. 연산 영역을 한정하여 FCM 방식을 적용함으로써, 전체 영역에서 FCM 방식을 실시하는 경우에 비해 비용이나 소비 전력의 증대를 억제하고, 연산 영역을 한정한 것에 의한 잉여의 연산량을 활용함으로써, 선택한 연산 영역에서는 고분해능으로 측정을 행할 수 있다. 또한, FCM 방식을 실시하는 경우, FFT 해석을 실시하는 연산 영역에 있어서 속도, 거리, 또는 안테나의 분해능을 억제하여 연산 정밀도를 떨어뜨리는 것에 의해, 연산 정밀도는 저하되지만, 연산량을 삭감하여, 비용이나 소비 전력의 증대를 억제할 수 있다.
구체적으로는, 레이더 장치의 처리 방식의 전환은, FCM 방식 등 특정 연산 방식에 있어서, 측정 대상을 한정하는 것을 포함한다. 즉, 복수의 측정 대상이 존재할 수 있는 경우에 있어서, 일부의 특정 측정 대상에 있어서만 레이더 장치를 사용한 거리 연산을 실시하고, 그 이외의 측정 대상을 거리 연산의 대상으로부터 제외함으로써, 특정 측정 대상에 있어서는 충분한 연산 정밀도를 얻음과 함께, 그 이외의 측정 대상에 있어서는 필요한 성능을 확보하면서, 비용이나 소비 전력의 증대를 억제할 수 있다. 예를 들어, 카메라의 화상 인식 결과나 LiDAR의 물체 인식 결과 등, 다른 센서의 인식 결과에 기초하여, 레이더 장치에 의한 측정을 특정 대상물에 한정할 수 있다. 또한, 주행 차량이 조우하는 씬별로 중요한 대상물이 변동하므로, 카메라의 화상이나 LiDAR의 물체 검출 등, 다른 센서에 의한 씬 인식 결과에 기초하여 레이더 장치의 측정 대상을 전환하도록 한다.
또한, 레이더 장치의 처리 방식의 전환은, FCM 방식 등 특정 연산 방식에 있어서, 측정 대상마다 인식 처리를 행하는 연산 순서의 전환, 즉 연산 순서 계획을 포함한다. 예를 들어, 자차량의 주변에 복수의 측정 대상이 존재하는 경우, 주행 중에 각 측정 대상의 우선도는 시시각각 변화한다. 그래서, 각 측정 대상에 대해서, 자차량과 충돌할 가능성(예를 들어, 예상되는 충돌 시각)에 기초하여 우선도를 판정한다. 그리고, 우선도에 따른 순서로 거리 연산을 실시함으로써, 자차량과 측정 대상의 충돌을 회피하여, ADAS 혹은 자동 운전의 안전성을 높이는 것이 가능하다.
또한, 레이더 장치의 처리 방식의 전환은, FMCW 방식이나 FCM 방식 등 연산 방식의 전환을 더 포함해도 된다. FCM 방식에 의하면, 물체 검출의 성능은 향상되지만, 비용이나 소비 전력의 증대를 초래한다. 이에 반해, FMCW 방식으로 전환함으로써, 성능의 저하를 허용하면서, 비용이나 소비 전력을 억제할 수 있다. 그래서, 필요하게 되는 연산 정밀도나, 연산 능력의 여력 등에 따라, 레이더 장치의 처리 방식의 전환을 행하게 해도 된다. 예를 들어, 카메라 등 다른 센서에 의한 물체 인식 결과나 씬 인식 결과, 차량의 주행 상황에 따라, 높은 연산 정밀도가 필요하다고 판정되는 경우에는 FCM 방식을 적용하지만, 높은 연산 정밀도가 필요하지 않다고 판정되는 경우에는, FMCW 방식으로 전환하게 해도 된다. 또한, 차량이 전기 자동차인 경우에는, 배터리의 충전량이 소정값 이하로 저감되었을 때에는, FCM 방식으로부터 FMCW 방식으로 전환하게 해도 된다. 연산 방식의 전환을 실현하기 위해서는, FMCW 방식 및 FCM 방식의 각각의 연산 처리를 실시하는 LSI(Large Scale Integration)칩을 차량에 탑재한다. 단, FMCW 방식 및 FCM 방식에서 공통되는 회로 모듈은 공통화하여 각 LSI를 구성하도록 해도 된다. 또한, 레이더는 범퍼 등 파손되기 쉬운 부위에 탑재되지만, 방식별로 개별로 LSI를 장비함으로써, 한쪽이 파괴되어도 다른 쪽이 백업이 된다.
또한, 밀리미터파 레이더를, 카메라나 LiDAR 등 기타 센서를 퓨전하는 퓨전 기술을 도입한 차량 제어 시스템의 경우에는, 레이더 장치의 처리 방식의 전환은, 퓨전 처리 방식의 전환을 포함한다. 즉, 각 센서의 처리의 정밀도나 연산 속도, 센서 간의 연산 순서를 전환하도록 한다. 또한, 센서마다 측정 대상을 한정하게 해도 된다. 예를 들어, 카메라나 LiDAR보다도 밀리미터파 레이더가 우위가 되는 악천후 시에 있어서, 적응적으로 FCM 방식을 실시하여 레이더에 의한 충분한 연산 정밀도를 확보하도록 한다. 한편, 카메라의 화상 인식으로도 필요한 성능이 얻어질 때에는, FMCW 방식으로 전환하여, 레이더에 의한 연산 정밀도를 어느 정도 희생시키면서, 비용이나 소비 전력의 증대를 억제한다.
또한, 여기에서 말하는, 레이더 장치의 처리 방식을 전환하는 「상황」은, ADAS나 자동 운전 등 대상 차량의 주행 상황 등 차량 주변의 상황이나, 차량 제어 시스템(100)에 있어서의 연산 능력이나, 소비 전력량 혹은 잉여 전력량 등 차량 자체의 상황을 포함한다. 또한, 차실 내의 입력 장치를 통하여 드라이버 등으로부터 입력되는 지시도, 「상황」에 포함된다. 또한, 인터넷 등의 외부 네트워크에 접속되어 있는 차량 제어 시스템에 있어서는, 클라우드 등 외부로부터 받는 지시도 「상황」에 포함된다.
여기서, FCM 방식의 레이더 장치에 있어서의 연산 처리에 대해서 보충 설명해 둔다. FCM 방식은, 주파수가 연속적으로 증가 또는 감소하는 처프파를 생성하는 송신 신호와 타깃으로부터의 처프파의 반사파의 수신 신호로부터 생성된 처프파마다의 비트 신호에 대하여 2회의 FFT 처리(2차원 FFT 처리)를 행하여 타깃과의 거리 및 상대 속도를 검출하는 방식이다. 또한, 어레이 안테나를 형성하는 복수의 수신 안테나의 안테나마다(혹은, 조타 방향) 2차원 FFT 처리를 실시하여, 타깃과의 거리 및 상대 속도를 3차원적으로 포착할 수 있다. FCM 방식은, FMCW 방식에 비해 예를 들어 속도 분해능이 우수하고, 처프파의 수(처프수)를 증가시키는 것 등에 의해 속도 분해능을 높일 수 있다.
상술한 바와 같이, FCM 방식은, FMCW 방식에 비해 연산량이 많다. FCM 방식의 레이더 장치에 있어서, 연산 영역을 한정하거나, 연산 정밀도를 억제하거나 함으로써, 연산량을 삭감할 수 있다. 예를 들어, FCM 방식의 FFT 해석 처리를 실시하는 속도 영역, 거리 영역, 또는 안테나 영역을 한정하여 연산 영역을 한정함으로써, 연산량을 삭감할 수 있다. 또한, FCM 방식의 FFT 해석을 실시하는 연산 영역에 있어서, 속도, 거리, 또는 안테나의 분해능을 억제하여 연산 정밀도를 떨어뜨리는 것에 의해, 연산량을 삭감할 수 있다. 혹은, 3회째의 FFT 대신 빔 포밍법이나 Capon법 등을 사용하는 경우에는, 측정 대상의 거리와 방위각을 한정함으로써, 연산량을 삭감할 수 있다.
도 2에는, 차량 탑재 레이더 장치의 처리 방식을 전환 제어하기 위한 정보 처리 시스템의 기능적 구성예를 도시하고 있다.
도시된 정보 처리 시스템(200)은 물체 인식부(201)와, 씬 인식부(202)와, 주행 상황 인식부(203)와, 선택부(204)와, 계획부(205)와, 거리 연산부(206)와, 제시부(207)와, 입력부(208)와, 주제어부(209)와, 각종 데이터베이스(DB)(211 내지 214)를 구비하고 있다. 또한, 정보 처리 시스템(200)에는, 카메라(221), LiDAR(222), 차체 센서(223), 및 레이더(밀리미터파 레이더)(224) 등의 각종 센서로부터 센서 신호를 입력한다.
정보 처리 시스템(200)은 기본적으로는 차량에 탑재하여 사용되고, 보다 바람직하게는, 도 1에 도시한 차량 제어 시스템(100) 내에 내장되어 있다. 예를 들어, 기능 모듈(201 내지 206)의 일부 또는 전부는, 자동 운전 제어부(112) 내에 실장되거나, 혹은 도 1에 도시한 자동 운전 제어부(112) 내의 어느 기능 모듈 내에 실장되어 있다. 또한, 주제어부(109)는 예를 들어 차량에 탑재되는 ECU(Electronic Control Unit)에 상당한다. 또한, 제시부(209)는 도 1 중의 출력부(106)가 겸용하고, 입력부(208)는 도 1 중의 입력부(101)가 겸용할 수 있다. 또한, 카메라(221), LiDAR(222), 차체 센서(223), 및 레이더(224)는 도 1 중의 데이터 취득부(102)에 포함되는 센서를 이용할 수 있다. 또한, 각종 데이터베이스(DB)(211 내지 214)는, 정보 처리 시스템(200) 내에 구축되어도 되지만(즉, 차량에 탑재되어 있어도 되지만), 도 1 중의 통신부(103)를 통하여 접속되는 외부 데이터베이스여도 된다.
물체 인식부(201)는 카메라(221)에 의한 촬영 화상을 화상 인식하거나, 또는, LiDAR(222)의 검출 신호에 기초하여 물체 인식하고, 자차량 주변에 존재하는 물체의 종류나, 물체가 존재하는 방향, 자차량으로부터 물체까지의 개산 거리를 추정한다. 물체 인식부(201)는 필요에 따라 센서 퓨전 처리를 실시해도 된다.
씬 인식부(202)는 카메라(221)에 의한 촬영 화상, LiDAR(222)의 검출 신호, 혹은 물체 인식부(201)에 의한 물체 인식 결과에 기초하여, 자차량이 조우하는 씬을 인식한다. 여기에서 인식되는 씬으로서, 예를 들어, 주행 중의 도로의 형상이나, 혼잡 상태나 보행자 등의 도로 상황, 날씨나 조명 등의 주행 환경을 들 수 있다. 씬 인식부(202)는 필요에 따라 센서 퓨전 처리를 실시해도 된다.
주행 상황 인식부(203)는 차체 센서(223)로부터의 센서 신호를 입력 받아, 자차량의 주행 상황을 인식한다. 차체 센서(223)는 자이로 센서, 가속도 센서, 관성 계측 장치(IMU), 및 액셀러레이터 페달의 조작량, 브레이크 페달의 조작량, 스티어링 휠의 조타각, 엔진 회전수, 모터 회전수, 혹은, 차륜의 회전 속도 등의 자차량의 상태를 검출하는 각종 센서나, 차량 탑재 배터리의 잔량을 검출하는 배터리 센서, 날씨 또는 기상 등을 검출하기 위한 환경 센서(빗방울 센서, 안개 센서, 일조 센서, 눈 센서, 온도 센서, 습도 센서 등)를 포함한다. 주행 상황 인식부(203)는 이들 차체 센서(223)의 센서 신호에 기초하여, 차속, 차량의 진행 방향, 가속도, 가속도 방향, 차량의 절대 위치, 외기온, 진동, 빗방울 등의 주행 상황을 인식한다.
선택부(204)는 FCM 방식 등 특정 연산 방식에 있어서, 연산 영역이나 연산 정밀도를 선택한다. 선택부(204)가 행하는 연산 영역의 선택에는, 측정 대상을 한정하는 것을 포함한다. 복수의 측정 대상이 존재할 수 있는 경우에 있어서, 일부의 특정 측정 대상에 있어서만 레이더(224)를 사용한 거리 연산을 실시하고, 그 이외의 측정 대상을 거리 연산의 대상으로부터 제외함으로써, 연산 부하를 억제하면서, 특정 측정 대상에 있어서는 충분한 연산 정밀도를 얻을 수 있다. 또한, 선택부(204)가 행하는 연산 정밀도의 선택에는, FCM 방식에 있어서, FFT 해석을 실시하는 연산 영역에서 속도, 거리, 또는 안테나의 분해능을 억제하여 연산 정밀도를 떨어뜨리는 것을 포함한다. 연산 정밀도의 억제에 의해, 연산량을 삭감할 수 있다. 구체적으로는, 선택부(204)는 물체 인식부(201)에 의한 물체 인식 결과, 씬 인식부(202)에 의한 씬 인식 결과, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 결과에 기초하여, 거리 연산부(206)가 레이더(224)의 센서 신호로부터 거리 연산을 실시해야 할 연산 영역(혹은, 측정 대상)을 선택하거나, 특정 연산 영역에 있어서의 연산 정밀도를 선택하거나 한다. 또한, 선택부(204)가 행하는 연산 정밀도의 선택에는, FCM 방식과 FMCW 방식의 어느 것의 선택(연산 정밀도가 다른 복수의 연산 방식 중에서의 선택)을 포함해도 된다.
선택부(204)는 기본적으로는, 물체 인식부(201)에 의해 인식된 물체를, 거리 연산을 실시해야 할 영역으로서 선택하고, 기타 영역을 거리 연산의 대상으로부터 제외한다. 물체가 존재하지 않는 영역에 거리 연산을 실시해도 소용없고, 헛되이 연산 부하를 높일 뿐이기 때문이다.
또한, 선택부(204)는 추가로 씬 인식부(202)에 의해 인식된 씬에 기초하여, 물체 인식부(201)에 의해 인식된 물체 중 자차량과 충돌할 것 같은 물체(주변 차량, 자전거, 보행자, 장애물 등)를 판정하여, 측정 대상을 선택한다. 예를 들어, 자차량으로부터의 거리가 가까운 물체는 충돌할 가능성이 있지만, 대향차나 보도를 보행 중인 보행자와는 충돌할 가능성이 낮아, 측정 대상으로서 선택해서는 안된다. 또한, 자차량의 전방의 횡단보도를 건너려고 하고 있는 보행자는 충돌할 가능성이 높고, 부모와 동행하고 있는 어린 아이나, 혼자 걷고 있는 노인이라면 더욱 충돌할 가능성이 높아, 측정 대상으로서 선택해야 한다. 선택부(204)는 씬 인식부(202)에 의해 인식된 씬에 기초하여, 측정 대상에 대하여 적용할 연산 정밀도를 선택하도록 해도 된다. 예를 들어, 보행자 등과의 충돌 가능성이 높은 일반 도로이면 높은 연산 정밀도(혹은, 연산 정밀도가 높은 FCM 방식)를 선택하고, 고속 도로이면 낮은 연산 정밀도(혹은, 연산 정밀도가 높지 않은 FMCW 방식)를 선택하도록 해도 된다.
또한, 선택부(204)는 주행 상황 인식부(203)가 차체 센서(223)의 검출 결과로부터 인식하는 자차량의 주행 상황에 기초하여 측정 대상을 선택한다. 예를 들어, 카메라나 LiDAR보다도 밀리미터파 레이더가 우위가 되는 악천후 시에는, 선택부(204)는 레이더(224)를 사용한 측정 대상을 증가시켜서, 자차량의 주행 안전성을 확보한다. 반대로, 카메라나 LiDAR로도 충분한 물체 인식 성능이 얻어지는 경우에는, 측정 대상을 제한함으로써, FCM 방식의 거리 연산을 실시하는 것에 의한 비용이나 소비 전력의 증대를 억제한다. 또한, 선택부(204)는 가감속하고 있거나, 핸들을 꺾고 있거나, 드라이버의 주의력이 저하되어 있는 등, 차체 센서(223)가 모니터하는 드라이버의 상황에 기초하여, 측정 대상을 선택하도록 해도 된다. 또한, 선택부(204)는 거리 연산부(206)(혹은, 정보 처리 시스템(200))의 연산 능력이나, 소비 전력량 혹은 잉여 전력량 등의 상황에 기초하여 측정 대상을 선택한다. 연산 능력이나 전력량에 여유가 없으면, 선택부(204)는 측정 대상을 제한하고, 긴요한 측정 대상에 대하여 확실하게 거리 연산을 행하도록 한다. 반대로, 연산 능력이나 전력량에 여유가 생기면, 선택부(204)는 측정 대상을 증가시켜서, 안전성을 보다 확보하게 해도 된다. 선택부(204)는 주행 상황 인식부(203)에 의해 인식된 씬에 기초하여, 측정 대상에 대하여 적용할 연산 정밀도를 선택하도록 해도 된다. 예를 들어, 차량이 전기 자동차이며 배터리의 충전량이 충분할 때에는 높은 연산 정밀도(혹은, 연산 정밀도가 높은 FCM 방식)를 선택하고, 충전량이 소정값 이하로 저감되었을 때에는 낮은 연산 정밀도(혹은, 연산 정밀도가 높지 않은 FMCW 방식)를 선택하도록 해도 된다. 또한, 차량의 차속이 빠를 때에는 측정 대상의 속도 검지를 확장하기 위하여 FCM 방식을 선택하고, 차속이 느릴 때는 FMCW 방식을 선택하도록 해도 된다. 또한, 스티어링 휠의 조타각이 변화했을 때(즉, 핸들 조작이 행하여졌을 때)에는 충돌의 위험이 향상되므로 높은 연산 정밀도(혹은, 연산 정밀도가 높은 FCM 방식)를 선택하고, 차량의 직진 시에는 낮은 연산 정밀도(혹은, 연산 정밀도가 높지 않은 FMCW 방식)를 선택하도록 해도 된다.
선택부(204)가 연산 영역 및 연산 정밀도를 선택하는 요인은 각양각색이다. 그래서, 선택부(204)는 피사체마다의 긴급도 데이터베이스(211), 씬마다의 우선 피사체 데이터베이스(212), 그리고 주행 상황마다의 우선 피사체 데이터베이스(213) 중 적어도 하나의 데이터베이스를 참조하여, 거리 연산을 실시해야 할 측정 대상이나 연산 정밀도를 선택한다.
피사체마다의 긴급도 데이터베이스(211)에는, 보행자(어린이, 어른, 노인 등), 차량(선행차, 후속차, 대향차, 바이크, 자전거) 등, 물체 인식부(201)에 의해 인식 가능한 피사체마다의 거리 연산해야 할 긴급도나 필요한 분해능에 관한 정보를 축적하고 있다. 또한, 씬마다의 우선 피사체 데이터베이스(212)는 교차점이나 커브, 일반 도로, 고속 도로, 터널 내, 야간 주행 시, 우천 주행 시, 농무, 적설 시 등, 씬 인식부(202)에 의해 인식 가능한 씬에 따라서 우선하여 거리 연산해야 할 피사체나 필요한 분해능에 관한 정보를 축적하고 있다. 또한, 주행 상황마다의 우선 피사체 데이터베이스(213)는 충전량이나 차속, 스티어링 휠의 조타각 등, 주행 상황 인식부(203)에 의해 인식되는 자차량의 주행 상황에 따라서 우선하여 거리 연산해야 할 피사체나 필요한 분해능에 관한 정보를 축적하고 있다.
따라서, 선택부(204)는 피사체마다의 긴급도 데이터베이스(211)를 참조하여, 물체 인식부(201)에 의해 인식된 물체의 종류마다의 긴급도나 필요한 분해능을 판단하거나, 씬 인식부(202)에 의해 인식된 씬마다 우선하여 인식해야 할 물체나 필요한 분해능을 예측하거나, 주행 상황 인식부(203)에 의해 인식된 자차량의 주행 상황마다 우선하여 인식해야 할 물체나 필요한 분해능을 인식하여, 측정 대상 그리고 연산 정밀도를 적절하게 선택할 수 있다. 선택부(204)가 측정 대상을 선택함으로써, 거리 연산부(206)에 있어서 거리 연산을 실시해야 할 연산 영역이 확정된다. 또한, 선택부(204)는 거리 연산을 실시하는 연산 영역과 아울러, 연산 정밀도의 선택도 행한다. 연산 정밀도의 선택에는, FCM 방식에 있어서 FFT 해석을 실시하는 연산 영역에서 속도, 거리, 또는 안테나의 분해능을 선택하는 것이나, FCM 방식과 FMCW 방식 등 연산 정밀도가 다른 복수의 연산 방식 중에서 어느 것을 선택하는 것을 포함한다.
또한, 선택부(204)는 선택한 측정 대상 및 연산 정밀도에 관한 정보를, 제시부(207)를 사용하여 드라이버 등 자차량의 탑승자에게 제시하게 해도 된다. 또한, 선택부(204)는 드라이버 등 자차량의 탑승자로부터, 입력부(208)를 통하여 측정 대상에 관한 지시가 입력된 경우에는, 그 지시에 따라서, 측정 대상의 선택을 변경하도록 해도 된다. 또한, 선택부(204)는 주행 상황 인식부(203)가 에어컨의 가동 상황이나 차량 탑재 배터리의 잔량 등에 기초하여 필요 전력이 부족하다는 주행 상황을 인식한 경우에는, 제시부(207)를 사용하여 드라이버 등 자차량의 탑승자에게 경고를 발하거나, 주제어부(209)에 통지하거나 하게 해도 된다. 주제어부(209)는 에어컨의 정지 등 거리 연산의 가동 시간을 연장하기 위한 처리를 촉구하게 해도 된다.
또한, 피사체마다의 긴급도 데이터베이스(211), 씬마다의 우선 피사체 데이터베이스(212), 주행 상황마다의 우선 피사체 데이터베이스(213)에 학습 기능을 도입하고, 선택부(204)에 의한 선택 결과에 기초하여, 각 데이터베이스(211 내지 213)의 기억 데이터를 갱신하게 해도 된다.
계획부(205)는 거리 연산부(206)가 FCM 방식에 의해 물체의 거리 및 상대 속도를 연산하는 연산 능력과, 인식 대상에 따른 연산 부하의 견적을 행함과 함께, 선택부(204)에서 선택한 각 측정 대상의 연산 순서의 계획을 입안한다. 또한, 계획부(205)는 소비 전력량 혹은 잉여 전력량 등의 상황에 기초하여, 측정 대상의 연산 순서를 계획하게 해도 된다. 계획부(205)는 연산 능력이나 전력량에 여유가 없는 측정 대상의 거리 연산을 생략하고, 긴요한 측정 대상에 대하여 확실하게 거리 연산을 행하도록 한다. 반대로, 연산 능력이나 전력량에 여유가 생기면, 계획부(205)는 측정 대상을 증가시켜서, 안전성을 보다 확보하게 해도 된다. 계획부(205)는 측정 대상의 연산 순서를 계획할 때, 측정 대상마다의 필요 연산량에 관한 정보를 축적한, 측정 대상마다의 필요 연산량 데이터베이스(214)를 적절히 참조해도 된다. 필요 연산량 데이터베이스(214)는 측정 대상마다 거리 연산의 실시에 필요로 되는 연산량에 관한 정보를 축적하고 있다. 연산 정밀도나 연산 방식의 전환을 상정하고 있는 경우에는, 필요 연산량 데이터베이스(214)는 측정 대상마다 연산 정밀도나 연산 방식에 따른 필요 연산량을 축적하고 있어도 된다.
또한, 계획부(205)는 선택부(204)에 의해 선택된 측정 대상이, 거리 연산부(206)의 연산 능력을 초과한다고 판단한 경우에는, 제시부(207)를 사용하여 드라이버 등 자차량의 탑승자에게 경고를 발하게 해도 된다. 또한, 계획부(205)는 거리 연산부(206)의 연산 부하를 경감하기 위해서, 주제어부(209)에 대하여 자차량의 차속을 저하하도록 지시해도 된다. 또한, 계획부(205)는 연산 능력을 위해서 거리 연산을 실시하지 않는 피사체에 관한 정보를, 제시부(207)를 사용하여 드라이버 등 자차량의 탑승자에게 제시하게 해도 된다.
또한, 측정 대상마다의 필요 연산량 데이터베이스(214)에 학습 기능을 도입하고, 계획부(205)가 입안한 계획에 기초하여, 측정 대상마다의 필요 연산량 데이터베이스(214)의 기억 데이터를 갱신하게 해도 된다.
거리 연산부(206)는 선택부(204)가 선택한 측정 대상에 의해 한정되고 또한, 계획부(205)가 계획한 연산 순서에 따라서, 레이더(224)의 센서 신호로부터 물체까지의 거리 연산을 실시한다. 거리 연산부(206)는 적어도 FCM 방식을 채용한다. FCM 방식은, 주파수가 연속적으로 증가 또는 감소하는 처프파를 생성하는 송신 신호와 타깃으로부터의 처프파의 반사파의 수신 신호로부터 생성된 처프파별 비트 신호에 대하여 2회의 FFT 처리(2차원 FFT 처리)를 행하여 타깃과의 거리 및 상대 속도를 검출하는 방식이다. 이 경우, 거리 연산부(206)는 선택부(204)에 의해 선택된 연산 정밀도에 따른 분해능으로, FCW 방식에 의한 거리 연산을 실시한다. 또한, 거리 연산부(206)는 FCM 방식 및 FMCW 방식을 모두 채용할 수도 있고, 선택부(204)에 의해 선택된 연산 정밀도 혹은 연산 방식으로 전환하여, 거리 연산을 실시하게 해도 된다. 그리고, 거리 연산부(206)는 산출한 각 물체의 거리 및 상대 속도에 관한 정보를 주제어부(209)로 출력한다.
주제어부(209)는 거리 연산부(206)에 의한 연산 결과를, 자동 운전이나 ADAS 등의 차량 제어에 활용한다. 주제어부(209)는 예를 들어, 자동차간 제어(ACC), 차선 일탈 경보(LDW), 레인 킵 어시스트(LKA), 자동 긴급 브레이크(AEB), 사각 검지(BSD)와 같은, 자동 운전 또는 ADAS를 위한 차량 제어를 실시하고, 나아가 액티브 코너링 라이트(ACL), 브레이크 액추에이터(BRK), 조타 장치(STR) 등 각 구동부의 구동을 제어한다.
도 3에는, 정보 처리 시스템(100)이 실행하는 처리 수순의 일례를 흐름도의 형식으로 도시하고 있다. 도시된 처리 수순은, 주제어부(209)의 제어 하에서, 정보 처리 시스템(100) 내의 각 부가 동작함으로써 실현된다.
먼저, 물체 인식부(201)가 카메라(221)에 의한 촬영 화상을 화상 인식함과 함께, LiDAR(222)의 검출 신호에 기초하여 물체 인식을 행한다(스텝 S301). 물체 인식부(201)는 필요에 따라 센서 퓨전 처리를 실시한다.
또한, 씬 인식부(202)가 카메라(221)에 의한 촬영 화상, LiDAR(222)의 검출 신호, 혹은 물체 인식부(201)에 의한 물체 인식 결과에 기초하여, 자차량이 조우하는 씬을 인식한다(스텝 S302). 씬 인식부(202)는 필요에 따라 센서 퓨전 처리를 실시한다.
또한, 주행 상황 인식부(203)는 차체 센서(223)로부터의 센서 신호를 입력 받아, 자차량의 주행 상황을 인식한다(스텝 S303).
단, 물체 인식부(201)에 의한 물체 인식 처리, 씬 인식부(202)에 의한 씬 인식 처리, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 처리는 무순이며, 이들 3개의 처리를 동시 병행하여 실시해도 된다.
이어서, 선택부(204)는 물체 인식부(201)에 의한 물체 인식 결과, 씬 인식부(202)에 의한 씬 인식 결과, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 결과에 기초하여, 거리 연산부(206)가 레이더(224)의 센서 신호로부터 거리 연산을 실시해야 할 측정 대상이 존재하는지의 여부를 체크한다(스텝 S304). 선택부(204)는 측정 대상의 선택을 행할 때에, 피사체마다의 긴급도 데이터베이스(211), 씬마다의 우선 피사체 데이터베이스(212), 그리고 주행 상황마다의 우선 피사체 데이터베이스(213)를 필요에 따라서 적절히 참조한다. 또한, 선택부(204)는 선택한 측정 대상에 대해서, 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하도록 해도 된다.
거리 연산을 실시해야 할 측정 대상이 존재하지 않는 경우에는(스텝 S304의 "아니오"), 스텝 S301로 되돌아가서, 물체 인식 처리, 씬 인식 처리, 주행 상황 인식 처리를 반복하여 실시하여, 측정 대상의 발견을 시도한다.
또한, 거리 연산을 실시해야 할 측정 대상이 존재하는 경우에는(스텝 S304의 "예"), 계획부(205)는 상기 인식 처리 S301 내지 S303을 통하여 검출된 각 측정 대상에 대하여 거리 연산을 실시하는 우선도 판정을 행한다(스텝 S305).
이후에는, 판정된 우선도에 따라서, 각 측정 대상의 거리 연산이 순차 시도되게 된다.
계획부(205)는 거리 연산부(206)가 FCM 방식에 의해 물체의 거리 및 상대 속도를 연산하는 연산 능력과, 인식 대상에 따른 연산 부하의 견적을 행하여, 거리 연산부(206)(혹은, 정보 처리 시스템(200))의 연산 능력에 충분한 여력이 있는지를 체크한다(스텝 S307). 그 때, 계획부(205)는 측정 대상마다의 필요 연산량 데이터베이스(214)를 적절히 참조한다. 또한, 선택부(204)가 그 측정 대상에 대하여 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하고 있는 경우에는, 스텝 S307에서는, 그 연산 정밀도 또는 연산 방식에 따른 연산 능력의 여력이 있는지를 체크하도록 한다.
연산 능력에 충분한 여력이 있는 경우에는(스텝 S307의 "예"), 거리 연산부(206)는 다음 측정 대상에 대해서, FCM 방식에 의해 물체의 거리 및 상대 속도를 연산한다(스텝 S308). 그리고, 거리 연산부(206)는 선택부(204)에서 선택한 연산 영역 및 연산 정밀도로 거리 연산을 실시하는 것으로 한다. 단, 임의의 연산 방식을 선택 가능한 경우에는, 선택부(204)가 선택한 연산 방식에 의해 물체의 거리 및 상대 속도를 연산한다.
그 후, 측정 대상이 아직 남아있는 경우에는(스텝 S306의 "아니오"), 연산 능력의 확인(스텝 S307), 및 측정 대상에 대한 거리 연산(스텝 S308)을 반복하여 실시한다.
모든 측정 대상에 대하여 거리 및 상대 속도의 측정을 행한 경우에는(스텝 S306의 "예"), 스텝 S301로 되돌아가서, 물체 인식 처리, 씬 인식 처리, 주행 상황 인식 처리를 반복하여 실시하고, 새롭게 출현한 측정 대상의 발견을 시도한다.
또한, 거리 연산부(206)(혹은, 정보 처리 시스템(200))의 연산 능력의 여력이 충분하지 않은 경우에는(스텝 S307의 "아니오"), 계획부(205)는 나머지 측정 대상에 관한 거리 연산을 포기한다. 혹은, 연산 능력의 여력이 충분하지 않은 경우에는, 연산 정밀도를 포기하고, 이후의 측정 대상에 대해서는 FCM 방식으로부터 FMCW 방식으로 전환하여, 물체의 거리 및 상대 속도의 연산을 실시하게 해도 된다. 그리고, 나머지 측정 대상에 대하여 거리 및 상대 속도의 측정을 행하지 않는 것의 대처 처리로서, 제시부(207)를 사용하여, 측정을 생략한 것을 드라이버 등 자차량의 탑승자에게 제시한다(스텝 S309). 거리 연산부(206)에서 사용하는 연산 방식을 전환했을 때에는, 그 취지를 제시하게 해도 된다. 그 후, 스텝 S301로 되돌아가서, 물체 인식 처리, 씬 인식 처리, 주행 상황 인식 처리를 반복하여 실시하여, 측정 대상의 발견을 시도한다.
도 4에는, 정보 처리 시스템(100)이 실행하는 처리 수순의 다른 예를 흐름도의 형식으로 도시하고 있다. 도시의 처리 수순은, 주제어부(209)의 제어 하에서, 정보 처리 시스템(100) 내의 각 부가 동작함으로써 실현된다.
먼저, 물체 인식부(201)가 카메라(221)에 의한 촬영 화상을 화상 인식함과 함께, LiDAR(222)의 검출 신호에 기초하여 물체 인식을 행한다(스텝 S401). 또한, 씬 인식부(202)가 카메라(221)에 의한 촬영 화상, LiDAR(222)의 검출 신호, 혹은 물체 인식부(201)에 의한 물체 인식 결과에 기초하여, 자차량이 조우하는 씬을 인식한다(스텝 S402). 물체 인식 그리고 씬 인식의 각 처리에 있어서, 센서 퓨전 처리를 적절히 도입해도 된다.
또한, 주행 상황 인식부(203)는 차체 센서(223)로부터의 센서 신호를 입력 받아, 자차량의 주행 상황을 인식한다(스텝 S403). 단, 물체 인식부(201)에 의한 물체 인식 처리, 씬 인식부(202)에 의한 씬 인식 처리, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 처리는 무순이며, 이들 3개의 처리를 동시 병행하여 실시해도 된다.
이어서, 선택부(204)는 물체 인식부(201)에 의한 물체 인식 결과, 씬 인식부(202)에 의한 씬 인식 결과, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 결과에 기초하여, 거리 연산부(206)가 레이더(224)의 센서 신호로부터 거리 연산을 실시해야 할 측정 대상이 존재하는지의 여부를 체크한다(스텝 S404). 선택부(204)는 측정 대상의 선택을 행할 때에, 피사체마다의 긴급도 데이터베이스(211), 씬마다의 우선 피사체 데이터베이스(212), 그리고 주행 상황마다의 우선 피사체 데이터베이스(213)를 필요에 따라서 적절히 참조한다. 또한, 선택부(204)는 선택한 측정 대상에 대해서, 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하도록 해도 된다.
거리 연산을 실시해야 할 측정 대상이 존재하지 않는 경우에는(스텝 S304의 "아니오"), 스텝 S401로 되돌아가서, 상기 처리를 반복하여, 측정 대상의 발견을 시도한다.
한편, 거리 연산을 실시해야 할 측정 대상이 존재하는 경우에는(스텝 S304의 "예"), 계획부(205)는 검출된 각 측정 대상에 대하여 거리 연산을 실시하는 우선도 판정을 행한다(스텝 S405). 이후에는, 판정된 우선도에 따라서, 각 측정 대상의 거리 연산이 순차 시도된다.
계획부(205)는 거리 연산부(206)가 FCM 방식에 의해 물체의 거리 및 상대 속도를 연산하는 연산 능력과, 인식 대상에 따른 연산 부하의 견적을 행하여, 거리 연산부(206)의 연산 능력에 충분한 여력이 있는지를 체크한다(스텝 S407). 또한, 선택부(204)가 그 측정 대상에 대하여 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하고 있는 경우에는, 스텝 S407에서는, 그 연산 정밀도 또는 연산 방식에 따른 연산 능력의 여력이 있는지를 체크하도록 한다. 그리고, 연산 능력에 충분한 여력이 있는 경우에는(스텝 S407의 "예"), 거리 연산부(206)는 다음 측정 대상에 대해서, FCM 방식에 의해 물체의 거리 및 상대 속도를 연산한다(스텝 S408). 거리 연산부(206)는 선택부(204)에서 선택한 연산 영역 및 연산 정밀도로 거리 연산을 실시하는 것으로 한다. 단, 임의의 연산 방식을 선택 가능한 경우에는, 선택부(204)가 선택한 연산 방식에 의해 물체의 거리 및 상대 속도를 연산한다.
그 후, 측정 대상이 아직 남아있는 경우에는(스텝 S406의 "아니오"), 연산 능력의 확인(스텝 S407), 및 측정 대상에 대한 거리 연산(스텝 S408)을 반복하여 실시한다. 또한, 모든 측정 대상에 대하여 거리 및 상대 속도의 측정을 행한 경우에는(스텝 S406의 "예"), 스텝 S401로 되돌아가서, 상기 처리를 반복하여, 새롭게 출현한 측정 대상의 발견을 시도한다.
한편, 거리 연산부(206)의 연산 능력의 여력이 충분하지 않은 경우에는(스텝 S407의 "아니오"), 계획부(205)는 나머지 측정 대상에 관한 거리 연산을 포기한다. 혹은, 연산 능력의 여력이 충분하지 않은 경우에는, 연산 정밀도를 포기하고, 이후의 측정 대상에 대해서는 FCM 방식으로부터 FMCW 방식으로 전환하여, 물체의 거리 및 상대 속도의 연산을 실시하게 해도 된다. 그리고, 주제어부(209)는 거리 연산부(206)의 연산 부하를 경감하기 위해서, 자차량의 차속을 저하하도록 동작 제어부(135)에 지시한다(스텝 S410). 차속이 저하되면, 물체 인식부(201)에서 인식되는 단위 시간당의 물체수가 감소하거나, 또는, 씬 인식부(202)에서 인식되는 씬의 단위 시간당의 변화가 감소하여, 선택부(204)에서 선택되는 측정 대상의 수도 감소하므로, 연산 부하가 경감될 것이 기대된다.
또한, 계획부(205)는 나머지 측정 대상에 대하여 거리 및 상대 속도의 측정을 행하지 않는 것의 대처 처리로서, 또한, 제시부(207)를 사용하여, 측정을 생략한 것을 드라이버 등 자차량의 탑승자에게 제시한다(스텝 S409). 거리 연산부(206)에서 사용하는 연산 방식을 전환했을 때에는, 그 취지를 제시하게 해도 된다. 그 후, 스텝 S401로 되돌아가서, 물체 인식 처리, 씬 인식 처리, 주행 상황 인식 처리를 반복하여 실시하여, 측정 대상의 발견을 시도한다.
도 5에는, 정보 처리 시스템(100)이 실행하는 처리 수순의 또다른 예를 흐름도의 형식으로 도시하고 있다. 도시의 처리 수순은, 주제어부(209)의 제어 하에서, 정보 처리 시스템(100) 내의 각 부가 동작함으로써 실현된다.
먼저, 물체 인식부(201)가 카메라(221)에 의한 촬영 화상을 화상 인식함과 함께, LiDAR(222)의 검출 신호에 기초하여 물체 인식을 행한다(스텝 S501). 또한, 씬 인식부(202)가 카메라(221)에 의한 촬영 화상, LiDAR(222)의 검출 신호, 혹은 물체 인식부(201)에 의한 물체 인식 결과에 기초하여, 자차량이 조우하는 씬을 인식한다(스텝 S502). 물체 인식 그리고 씬 인식의 각 처리에 있어서, 센서 퓨전 처리를 적절히 도입해도 된다.
또한, 주행 상황 인식부(203)는 차체 센서(223)로부터의 센서 신호를 입력 받아, 자차량의 주행 상황을 인식한다(스텝 S503). 단, 물체 인식부(201)에 의한 물체 인식 처리, 씬 인식부(202)에 의한 씬 인식 처리, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 처리는 무순이며, 이들 3개의 처리를 동시 병행하여 실시해도 된다.
이어서, 선택부(204)는 물체 인식부(201)에 의한 물체 인식 결과, 씬 인식부(202)에 의한 씬 인식 결과, 그리고 주행 상황 인식부(203)에 의한 주행 상황의 인식 결과에 기초하여, 거리 연산부(206)가 레이더(224)의 센서 신호로부터 거리 연산을 실시해야 할 측정 대상이 존재하는지의 여부를 체크한다(스텝 S504). 선택부(204)는 측정 대상의 선택을 행할 때에, 피사체마다의 긴급도 데이터베이스(211), 씬마다의 우선 피사체 데이터베이스(212), 그리고 주행 상황마다의 우선 피사체 데이터베이스(213)를 필요에 따라서 적절히 참조한다. 또한, 선택부(204)는 선택한 측정 대상에 대해서, 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하도록 해도 된다.
거리 연산을 실시해야 할 측정 대상이 존재하지 않는 경우에는(스텝 S504의 "아니오"), 스텝 S501로 되돌아가서, 상기 처리를 반복하여, 측정 대상의 발견을 시도한다.
한편, 거리 연산을 실시해야 할 측정 대상이 존재하는 경우에는(스텝 S504의 "예"), 계획부(205)는 검출된 각 측정 대상에 대하여 거리 연산을 실시하는 우선도 판정을 행한다(스텝 S505). 이후에는, 판정된 우선도에 따라서, 각 측정 대상의 거리 연산이 순차 시도된다.
계획부(205)는 거리 연산부(206)가 FCM 방식에 의해 물체의 거리 및 상대 속도를 연산하는 연산 능력과, 인식 대상에 따른 연산 부하의 견적을 행하여, 거리 연산부(206)의 연산 능력에 충분한 여력이 있는지를 체크한다(스텝 S507). 또한, 선택부(204)가 그 측정 대상에 대하여 거리 연산을 실시하는 연산 정밀도 또는 연산 방식을 아울러 선택하고 있는 경우에는, 스텝 S507에서는, 그 연산 정밀도 또는 연산 방식에 따른 연산 능력의 여력이 있는지를 체크하도록 한다. 그리고, 연산 능력에 충분한 여력이 있는 경우에는(스텝 S507의 "예"), 거리 연산부(206)는 다음 측정 대상에 대해서, FCM 방식에 의해 물체의 거리 및 상대 속도를 연산한다(스텝 S508). 거리 연산부(206)는 선택부(204)에서 선택한 연산 영역 및 연산 정밀도로 거리 연산을 실시하는 것으로 한다. 단, 임의의 연산 방식을 선택 가능한 경우에는, 선택부(204)가 선택한 연산 방식에 의해 물체의 거리 및 상대 속도를 연산한다.
그 후, 측정 대상이 아직 남아있는 경우에는(스텝 S506의 "아니오"), 연산 능력의 확인(스텝 S507), 및 측정 대상에 대한 거리 연산(스텝 S508)을 반복하여 실시한다. 또한, 모든 측정 대상에 대하여 거리 및 상대 속도의 측정을 행한 경우에는(스텝 S506의 "예"), 스텝 S501로 되돌아가서, 상기 처리를 반복하여, 새롭게 출현한 측정 대상의 발견을 시도한다.
한편, 거리 연산부(206)의 연산 능력의 여력이 충분하지 않은 경우에는(스텝 S507의 "아니오"), 계획부(205)는 나머지 측정 대상에 관한 거리 연산을 포기한다. 혹은, 연산 능력의 여력이 충분하지 않은 경우에는, 연산 정밀도를 포기하고, 이후의 측정 대상에 대해서는 FCM 방식으로부터 FMCW 방식으로 전환하여, 물체의 거리 및 상대 속도의 연산을 실시하게 해도 된다. 그리고, 주제어부(209)는 거리 연산부(206)의 연산 처리를 위한 전력을 우선적으로 사용할 수 있도록 하기 위해서, 바디계 제어부(109) 등에 대하여 전력 확보를 지시한다(스텝 S510). 예를 들어, 바디계 시스템(110)에 있어서, 공조 장치의 가동을 억제함(냉방 온도의 설정을 높임 등)으로써, 잉여 전력을 염출할 수 있다. 또한, 자차량이 전기 자동차의 경우에는, 구동계 제어부(107)가 구동용 모터의 구동력 발생을 억제함(차량의 속도 또는 가속도를 제한함)으로써, 잉여 전력을 염출할 수 있다.
또한, 계획부(205)는 나머지 측정 대상에 대하여 거리 및 상대 속도의 측정을 행하지 않는 것의 대처 처리로서, 또한, 제시부(207)를 사용하여, 측정을 생략한 것을 드라이버 등 자차량의 탑승자에게 제시한다(스텝 S509). 레이더 장치의 처리 방식을 전환했을 때에는, 그 취지를 제시하게 해도 된다. 그 후, 스텝 S401로 되돌아가서, 물체 인식 처리, 씬 인식 처리, 주행 상황 인식 처리를 반복하여 실시하여, 측정 대상의 발견을 시도한다.
도 6에는, 도 3에 도시한 흐름도 중의 스텝 S305에서 실시되는, 측정 대상의 우선도 판정 처리의 상세한 처리 수순을 흐름도의 형식으로 도시하고 있다. 도 4에 도시한 흐름도 중의 스텝 S405, 그리고 도 5에 도시한 흐름도 중의 스텝 S505에 있어서도, 마찬가지의 처리가 실시되는 것으로 이해하기 바란다.
이 우선도 판정 처리는, 정보 처리 시스템(200) 내에서, 예를 들어 계획부(205)가 실행한다. 또한, 도 6에 도시하는 우선도 판정 처리에서는, 측정 대상을 우선도순으로 정렬한 측정 대상 리스트를 사용하는 것을 전제로 한다.
먼저, 물체 인식, 씬 인식, 및 주행 상황 인식 S301 내지 S303을 통하여 검출된 모든 측정 대상에 대해서, 충돌 시각을 판정하기 위한 이하의 처리를 실시한다(스텝 S601의 "아니오").
계획부(205)는 측정 대상 리스트(상술)를 참조하여, 예를 들어 우선도순에 따라서 측정 대상을 선정한다(스텝 S602). 그리고, 선정한 측정 대상을 트래킹 완료인지의 여부를 체크한다(스텝 S603).
선정한 측정 대상이 트래킹 완료일 경우에는(스텝 S603의 "예"), 이미 트래킹한 결과에 기초하여, 자차량의 진로와 그 측정 대상의 궤도가 교차하여 자차량과 그 측정 대상의 충돌 시각을 계산한다(스텝 S604). 또한, 선정한 측정 대상을 아직 트래킹하고 있지 않은 경우에는(스텝 S603의 "아니오"), 소정의 예측 알고리즘에 따라서 그 측정 대상의 궤도를 예측하고, 자차량과 그 측정 대상의 충돌 시각을 추정한다(스텝 S605). 또한, 충돌할 가능성이 없는 측정 대상의 충돌 시각은 무한대가 된다.
그리고, 검출된 모든 측정 대상에 대해서, 충돌 시각의 판정을 종료하면(스텝 S601의 "예"), 계획부(205)는 스텝 S604 또는 S605에서 구해진 충돌 예상 시간에 기초하여 각 측정 대상을 정렬해서(스텝 S606), 측정 대상 리스트(상술)에 기입하고, 본 처리를 종료한다.
또한, 이미 충돌 시각이 경과한 측정 대상 등, 자차량과 충돌할 가능성이 낮은 측정 대상을 측정 대상 리스트(상술)로부터 삭제하는 처리가 별도 행하여지는 것으로 한다.
도 7에는, 도 3에 도시한 흐름도 중의 스텝 S305에서 실시되는, 측정 대상의 우선도 판정 처리의 상세한 처리 수순의 다른 예를 흐름도의 형식으로 도시하고 있다. 도 4에 도시한 흐름도 중의 스텝 S405, 그리고 도 5에 도시한 흐름도 중의 스텝 S505에 있어서도, 마찬가지의 처리가 실시되는 것으로 이해하기 바란다.
먼저, 물체 인식, 씬 인식, 및 주행 상황 인식 S301 내지 S303을 통하여 검출된 모든 측정 대상에 대해서, 충돌 시각을 판정하기 위한 이하의 처리를 실시한다(스텝 S701의 "아니오").
계획부(205)는 측정 대상 리스트(상술)를 참조하여, 예를 들어 우선도순에 따라서 측정 대상을 선정한다(스텝 S702). 그리고, 선정한 측정 대상을 트래킹 완료인지의 여부를 체크한다(스텝 S703). 선정한 측정 대상이 트래킹 완료일 경우에는(스텝 S703의 "예"), 자차량과 그 측정 대상의 충돌 시각을 계산한다(스텝 S704). 또한, 선정한 측정 대상을 아직 트래킹하고 있지 않은 경우에는(스텝 S703의 "아니오"), 자차량과 그 측정 대상의 충돌 시각을 추정한다(스텝 S705). 또한, 충돌할 가능성이 없는 측정 대상의 충돌 시각은 무한대가 된다.
그리고, 검출된 모든 측정 대상에 대해서, 충돌 시각의 판정을 종료하면(스텝 S701의 "예"), 계획부(205)는 스텝 S704 또는 S705에서 구해진 충돌 예상 시간에 기초하여 각 측정 대상을 정렬하면(스텝 S706), 제시부(207)를 통하여 측정 대상의 정렬 결과를, 드라이버 등의 자차량의 탑승자에게 제시한다.
측정 대상의 정렬 결과는, 예를 들어 표시 장치(전술)를 사용하여 화면에 표시된다. 탑승자는, 입력부(208)를 사용하여, 측정 대상의 우선도 변경의 지시를 입력할 수 있다. 입력부(208)는 터치 패널 등 표시 장치의 화면 UI(User Interface)나, 음성 입력 등이어도 된다. 계획부(205)는 우선도의 변경 지시에 따라서, 각 측정 대상의 우선도를 변경해서(스텝 S707), 측정 대상 리스트(상술)에 기입하고, 본 처리를 종료한다.
도 8에는, 도 6에 도시한 흐름도 중의 스텝 S604에서 실시되는, 자차량과 측정 대상의 충돌 시각을 계산하기 위한 처리 수순을 흐름도의 형식으로 도시하고 있다. 도 7에 도시한 흐름도 중의 스텝 S704에 있어서도, 마찬가지의 처리가 실시되는 것으로 이해하기 바란다.
계획부(205)는 과거의 측정 결과에 기초하여, 처리 중의 측정 대상을 트래킹 한다(스텝 S801). 그리고, 트래킹한 결과에 기초하여, 그 측정 대상의 궤도를 계산하고(스텝 S802), 자차량의 진로와 그 측정 대상의 궤도가 교차하여 자차량과 그 측정 대상의 충돌 시각을 계산하고(스텝 S803), 본 처리를 종료한다.
도 9에는, 도 6에 도시한 흐름도 중의 스텝 S605에서 실시되는, 자차량과 측정 대상의 충돌 시각을 추정하기 위한 처리 수순을 흐름도의 형식으로 도시하고 있다. 도 7에 도시한 흐름도 중의 스텝 S605에 있어서도, 마찬가지의 처리가 실시되는 것으로 이해하기 바란다.
먼저, 계획부(205)는 씬 인식부(202)에 의한 씬 인식 결과와의 매칭(스텝 S901), 그리고 측정 대상의 피사체 종별과의 매칭(스텝 S902)을 행한다. 이들 매칭 처리에는, 필요에 따라 경험칙 데이터베이스와의 대조가 적절히 행하여진다. 이들 매칭 처리는, 인식 처리 스텝 S301 내지 303(혹은, 스텝 S401 내지 403)을 통하여 선택부(204)에 의해 측정 대상으로서 선택된 물체 중, 명백하게 거리 연산이 불필요한 물체(예를 들어, 충돌할 가능성이 매우 낮은 물체)를 제외하고, 혹은 반대로 거리 연산이 필요한 물체(예를 들어, 충돌할 가능성이 극히 높은 물체)를 추출하기 위하여 실시된다.
이어서, 계획부(205)는 측정 대상으로 되어 있는 물체의 위치 정보 및 사이즈를 산출한다(스텝 S903). 그리고, 계획부(205)는 피사체 종별마다의 속도 정보와, 물체의 위치 및 사이즈와 거리의 관계에 기초하여, 그 물체가 자차량과 충돌할 가능성을 검증함과 함께, 충돌 시각을 산출하고(스텝 S904), 본 처리를 종료한다.
도 10에는, 도 7에 도시한 흐름도 중의 스텝 S706에 있어서, 표시 장치(전술)를 사용하여 측정 대상의 정렬 결과를 표시한 화면의 구성예를 도시하고 있다. 도 10에 도시하는 예에서는, 자차량의 전방 풍경을 비춘 화면 상에 정렬 결과가 표시되어 있다. 단, 화면이 아니라, 자차량의 프론트 글래스에 표시되는 헤드업 디스플레이여도 된다.
도 10 중, 참조 번호 1001 내지 1003은, 물체 인식부(201)가 인식한 물체이다. 도시한 바와 같이, 인식한 각 물체를 사각으로 둘러싸거나 해서, 인식되고 있는 것을 나타내게 해도 된다. 물체(1001)는 자차량의 전방으로 튀어나오려고 하고 있는 보행자이다. 또한, 물체(1002)는 자차량의 전방을 주행하고 있는 선행 차량이며, 자차량과의 거리가 점차 짧아지고 있다. 또한, 물체(1003)는 보도에서 멈추어 서 있는 보행자이다.
자차량의 전방으로 튀어나오려고 하고 있는 보행자(1001)나, 접근하고 있는 선행 차량(1002)은, 가까운 장래에 자차량과 충돌할 가능성이 있다. 이에 반해, 정지하고 있는 보행자(1003)는 자차량과 충돌할 가능성이 매우 낮다. 그래서, 선택부(204)는 인식 물체 중 물체(1001) 및 물체(1002)만을 측정 대상으로 선택하고 있다. 또한, 계획부(205)는 선택부(204)가 선택한 물체(1001) 및 물체(1002)에 대하여 각각 우선도 1, 2를 할당하고, 각 물체를 둘러싸는 프레임에 우선도를 각각 표시한다. 이에 의해, 드라이버 등 자차량의 탑승자는, 차도로 걸어 나오려고 하고 있는 보행자(1001)나 전방의 차량(1002)이 높은 우선도로 거리 측정되어 있음을 알 수 있다. 드라이버에 대하여 보행자(1001)나 전방의 차량(1002)의 충돌을 회피하기 위해서, 차속이 저하되도록 촉구하게도 한다.
도 11에는, 도 3에 도시한 흐름도 중의 스텝 S309에 있어서, 측정 대상에 대하여 거리 및 상대 속도의 측정을 행하지 않는 것의 대처 처리로서, 표시 장치(전술)를 사용하여 거리 연산을 생략한 측정 대상을 표시한 화면의 구성예를 도시하고 있다. 도 4에 도시한 흐름도 중의 스텝 S409, 그리고 도 5에 도시한 흐름도 중의 스텝 S509에 있어서도, 동일한 화면 표시가 실시되는 것으로 이해하기 바란다. 또한, 도 11에 도시하는 예에서는, 자차량의 전방 풍경을 비춘 화면 상에 거리 연산을 생략한 측정 대상이 표시되어 있다. 단, 화면이 아니라, 자차량의 프론트 글래스에 표시되는 헤드업 디스플레이여도 된다.
도 11 중, 참조 번호 1101은, 물체 인식부(201)가 인식한 물체 중, 선택부(204)가 측정 대상으로 선택하지 않고, 또는, 계획부(205)가 거리 측정의 대상으로부터 제외한 물체이다. 이 물체(1101)는 보도에서 멈추어 서 있는 보행자이다. 참조 번호 1102로 나타내는 보행자나, 참조 번호 1103으로 나타내는 전방 차량은, 가까운 장래에 자차량과 충돌할 가능성이 있어서, 거리 측정의 대상으로서 선택되고, 또한, 거리 연산의 계획에 포함된다. 이에 반해, 정지하고 있는 보행자(1101)는 자차량과 충돌할 가능성이 매우 낮기 때문에, 거리 측정의 대상으로서 선택되지 않거나, 또는, 연산 능력에 여력이 없는 경우에는 거리 연산의 계획으로부터 제외된다. 선택부(204) 또는 계획부(205)는 도시한 바와 같이, 보행자(1103)가 측거되어 있지 않은 것을 화면 상에 표시한다. 또한, 제시부(207)는 화면 표시와 아울러(혹은, 화면 표시 대신), 보행자(1101)가 거리 측정의 대상이 아닌 것을, 음성 메시지에 의해 제시하게 해도 된다. 보행자(1101)가 갑자기 움직이기 시작했을 때에는, 드라이버에 대하여 보행자(1101)와의 충돌을 회피하기 위해서, 차속을 저하시키도록 촉구하게도 한다.
도 12에는, 측정 대상의 변경을 지시하는 모습을 도시하고 있다. 예를 들어 도 11에 도시한 화면 상에서, 드라이버 등의 자차량의 탑승자는, 터치 패널 등 표시 장치의 화면 UI를 사용하여, 거리 및 상대 속도의 측정을 행하지 않는 측정 대상을 손끝으로 터치함으로써, 측정 대상으로 하도록 계획부(205)에 대하여 지시할 수 있다.
예를 들어, 도 7에 도시한 흐름도 중의 스텝 S707에 있어서, 계획부(205)는 드라이버가 측정 대상을 거리 측정의 대상에 부가하거나, 측정 대상의 우선도를 높이거나 하는 것을 지시한 것에 응답하여, 그 측정 대상을 측정 대상 리스트에 기입하거나 우선도를 변경하거나 한다. 또한, 도 3에 도시한 흐름도 중의 스텝 S309나, 도 4에 도시한 흐름도 중의 스텝 S409나, 도 5에 도시한 흐름도 중의 스텝 S509에 있어서도, 드라이버가 도 12에 도시된 바와 같은 화면을 통해서, 측정 대상으로부터 제외된 물체를 측정 대상에 부가하도록 지시할 수 있도록 해도 된다.
마지막으로, 본 실시 형태에 관계되는 정보 처리 시스템(200)의 효과에 대하여 언급한다. 정보 처리 시스템(200)은 레이더 장치를 카메라나 LiDAR 등의 다른 물체 검출 센서와 병용하여 측정을 행하는 장치에 적합하게 적용할 수 있다. 이러한 종류의 장치의 구체예는, ADAS나 자동 운전을 실현하는 차량 제어 시스템(100)이다.
레이더 장치에 있어서, FCM 방식의 레이더 처리를 적용함으로써, 거리 분해능이나 대상물의 속도 검지를 확장할 수 있는 반면, 연산량이 증가하기 때문에, 연산 회로의 비용이나 소비 전력이 증대한다는 문제가 있다(전술). 본 실시 형태에 관계되는 정보 처리 시스템(200)을 적용함으로써, FCM 방식의 레이더 처리에 있어서의 연산량을 삭감할 수 있거나, 혹은 동일한 연산량이어도 복수의 용도에 대응할 수 있다고 하는 장점이 있다. 또한, 시분할에 의해 연산 방법을 전환함으로써, 필요한 총 연산량을 저감할 수도 있다.
즉, 본 실시 형태에 관계되는 정보 처리 시스템(200)에 따르면, 측정 대상의 우선도에 따라, 레이더 장치의 처리 방식을 관리하는 것이 가능하다. 따라서, 저렴한 장치 구성이어도, 차량 제어 시스템(100)에 있어서의 ADAS 혹은 자동 운전의 안전성을 높이는 것이 가능하다.
물론, 본 실시 형태에 관계되는 정보 처리 시스템(200)에 있어서, 연산 능력을 강화함으로써, 레이더 장치를 사용한 거리 연산의 측정 대상의 수를 증가시켜서, 안전성을 보다 높인다고 하는 업그레이드를 실현하는 것도 가능하다.
이상, 특정 실시 형태를 참조하면서, 본 명세서에서 개시하는 기술에 대하여 상세하게 설명하였다. 그러나, 본 명세서에서 개시하는 기술의 요지를 일탈하지 않는 범위에서 당업자가 해당 실시 형태의 수정이나 대용을 할 수 있음은 자명하다.
본 명세서에서는, 차량 탑재 센서의 퓨전에 관한 실시 형태를 중심으로 설명해 왔지만, 본 명세서에서 개시하는 기술의 적용 범위는 차량에 한정되지 않는다. 예를 들어, 드론 등의 무인 항공기, 소정의 작업 공간(가정, 오피스, 공장 등)을 자율적으로 이동하는 로봇, 선박, 항공기 등, 다양한 타입의 이동체 장치에 대하여 마찬가지로 본 명세서에서 개시하는 기술을 적용할 수 있다. 물론, 이동체 장치에 설치되는 정보 단말기나, 이동형이 아닌 다양한 장치에 대해서도, 마찬가지로 본 명세서에서 개시하는 기술을 적용할 수 있다.
요컨대, 예시라고 하는 형태에 의해 본 명세서에서 개시하는 기술에 대하여 설명해 온 것이며, 본 명세서의 기재 내용을 한정적으로 해석해서는 안된다. 본 명세서에서 개시하는 기술의 요지를 판단하기 위해서는, 특허 청구 범위를 참작해야 한다.
또한, 본 명세서의 개시 기술은, 이하와 같은 구성을 취하는 것도 가능하다.
(1) FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부와,
다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
를 구비하는 정보 처리 장치.
(2) 상기 레이더는 차량에 탑재하여 사용되고, 상기 다른 센서는 동일한 차량의 차량 탑재 센서인,
상기 (1)에 기재된 정보 처리 장치.
(3) 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 있어서의 연산 처리의 연산 영역 또는 연산 정밀도 중 적어도 어느 것을 제어하는,
상기 (1) 또는 (2)의 어느 것에 기재된 정보 처리 장치.
(4) 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
상기 (1) 내지 (3)의 어느 것에 기재된 정보 처리 장치.
(5) 상기 제어부는, 상기 다른 센서에 의한 물체 인식 결과에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
상기 (4)에 기재된 정보 처리 장치.
(5-1) 상기 제어부는, 물체마다의 긴급도에 기초하여, 상기 대상을 선택하는,
상기 (5)에 기재된 정보 처리 장치.
(6) 상기 정보 처리 장치는 차량에 적용되고,
상기 제어부는, 상기 다른 센서에 의해 인식되는 상기 차량이 조우하고 있는 씬에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
상기 (4) 또는 (5)의 어느 것에 기재된 정보 처리 장치.
(6-1) 상기 제어부는, 씬마다의 우선도에 기초하여, 상기 대상을 선택하는,
상기 (6)에 기재된 정보 처리 장치.
(7) 상기 정보 처리 장치는 차량에 적용되고,
상기 제어부는, 상기 다른 센서에 의해 인식되는 상기 차량의 주행 상황에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
상기 (4) 내지 (6)의 어느 것에 기재된 정보 처리 장치.
(7-1) 상기 제어부는, 주행 상황마다의 우선도에 기초하여, 상기 대상을 선택하는,
상기 (7)에 기재된 정보 처리 장치.
(8) 상기 제어부는, 복수의 대상을 선택했을 때에, 각 대상을 상기 처리부에 의해 연산 처리를 실시하는 순서를 제어하는,
상기 (4) 내지 (7)의 어느 것에 기재된 정보 처리 장치.
(9) 상기 제어부는, 대상마다의 필요 연산량에 기초하여 상기 순서를 제어하는,
상기 (8)에 기재된 정보 처리 장치.
(10) 상기 제어부는, 필요 연산량에 대하여 상기 처리부의 연산 능력에 충분한 여력이 없는 대상의 상기 연산 처리를 생략하는,
상기 (9)에 기재된 정보 처리 장치.
(11) 상기 정보 처리 장치는 차량에 적용되고,
상기 제어부는, 상기 차량과 상기 복수의 대상의 각각의 충돌 예상 시각에 기초하여 상기 순서를 제어하는
상기 (8) 내지 (10)의 어느 것에 기재된 정보 처리 장치.
(12) 상기 제어부는, 상기 처리부에 의해 연산 처리를 실시할 것을 선택한 대상에 관한 정보를 제시하는,
상기 (1) 내지 (11)의 어느 것에 기재된 정보 처리 장치.
(12-1) 상기 제어부는, 각 대상의 우선도에 관한 정보를 제시하는,
상기 (12)에 기재된 정보 처리 장치.
(13) 상기 연산부는, 상기 처리부에 의한 연산 처리를 생략한 대상에 관한 정보를 제시하는,
상기 (10)의 기재된 정보 처리 장치.
(14) 상기 제어부는, 외부로부터의 지시에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 변경하는,
상기 (1) 내지 (13)의 어느 것에 기재된 정보 처리 장치.
(15) 상기 정보 처리 장치는 차량에 적용되고,
상기 제어부는, 상기 처리부의 연산 능력에 충분한 여력이 없는 경우에, 상기 차량의 차속 저하를 지시하는,
상기 (1) 내지 (14)의 어느 것에 기재된 정보 처리 장치.
(16) 상기 제어부는, 상기 처리부의 연산 능력에 충분한 여력이 없는 경우에, 전력 확보를 지시하는,
상기 (1) 내지 (14)의 어느 것에 기재된 정보 처리 장치.
(17) FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리 스텝과,
다른 센서의 검출 결과에 기초하여 상기 처리 스텝에 있어서의 연산 처리의 방식을 제어하는 제어 스텝
을 갖는 정보 처리 방법.
(18) FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부,
다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부,
로서 컴퓨터를 기능시키도록 컴퓨터 가독 형식으로 기술된 컴퓨터 프로그램.
(19) 차량에 탑재된 레이더 및 기타 차량 탑재 센서와,
상기 차량 탑재 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
를 구비하는 정보 처리 시스템.
(20) 이동체와,
상기 이동체에 탑재된 레이더 및 기타 센서와,
상기 기타 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부와,
상기 처리부에 의한 처리 결과에 기초하여 상기 이동체를 제어하는 이동체 제어부
를 구비하는 이동체 장치.
100: 차량 제어 시스템
101: 입력부
102: 데이터 취득부
103: 통신부
104: 차 내 기기
105: 출력 제어부
106: 출력부
107: 구동계 제어부
108: 구동계 시스템
109: 바디계 제어부
110: 바디계 시스템
111 기억부
112: 자동 운전 제어부
121: 통신 네트워크
131: 검출부
132: 자기 위치 추정부
133: 상황 분석부
134: 계획부
135: 동작 제어부
141: 차 외 정보 검출부
142: 차 내 정보 검출부
143: 차량 상태 검출부
151: 맵 해석부
152: 교통 룰 인식부
153: 상황 인식부
154: 상황 예측부
161: 루트 계획부
162: 행동 계획부
163: 동작 계획부
171: 긴급 사태 회피부
172: 가감속 제어부
173: 방향 제어부
200: 정보 처리 시스템
201: 물체 인식부
202: 씬 인식부
203: 주행 상황 인식부
204: 선택부
205: 계획부
206: 연산부
207: 제시부
208: 입력부
209: 주제어부
211: 피사체마다의 긴급도 데이터베이스
212: 씬마다의 우선 피사체 데이터베이스
213: 주행 상황마다의 우선 피사체 데이터베이스
214: 측정 대상마다의 필요 연산량 데이터베이스
221: 카메라
222: LiDAR
223: 차체 센서
224: 레이더(밀리미터파 레이더)

Claims (20)

  1. FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부와,
    다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
    를 구비하는 정보 처리 장치.
  2. 제1항에 있어서, 상기 레이더는 차량에 탑재하여 사용되고, 상기 다른 센서는 동일한 차량의 차량 탑재 센서인,
    정보 처리 장치.
  3. 제1항에 있어서, 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 있어서의 연산 처리의 연산 영역 또는 연산 정밀도 중 적어도 어느 것을 제어하는,
    정보 처리 장치.
  4. 제1항에 있어서, 상기 제어부는, 상기 다른 센서의 검출 결과에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
    정보 처리 장치.
  5. 제4항에 있어서, 상기 제어부는, 상기 다른 센서에 의한 물체 인식 결과에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
    정보 처리 장치.
  6. 제4항에 있어서, 상기 정보 처리 장치는 차량에 적용되고,
    상기 제어부는, 상기 다른 센서에 의해 인식되는 상기 차량이 조우하고 있는 씬에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
    정보 처리 장치.
  7. 제4항에 있어서, 상기 정보 처리 장치는 차량에 적용되고,
    상기 제어부는, 상기 다른 센서에 의해 인식되는 상기 차량의 주행 상황에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 선택하는,
    정보 처리 장치.
  8. 제4항에 있어서, 상기 제어부는, 복수의 대상을 선택했을 때에, 각 대상을 상기 처리부에 의해 연산 처리를 실시하는 순서를 제어하는,
    정보 처리 장치.
  9. 제8항에 있어서, 상기 제어부는, 대상마다의 필요 연산량에 기초하여 상기 순서를 제어하는,
    정보 처리 장치.
  10. 제9항에 있어서, 상기 제어부는, 필요 연산량에 대하여 상기 처리부의 연산 능력에 충분한 여력이 없는 대상의 상기 연산 처리를 생략하는,
    정보 처리 장치.
  11. 제8항에 있어서, 상기 정보 처리 장치는 차량에 적용되고,
    상기 제어부는, 상기 차량과 상기 복수의 대상의 각각의 충돌 예상 시각에 기초하여 상기 순서를 제어하는,
    정보 처리 장치.
  12. 제1항에 있어서, 상기 제어부는, 상기 처리부에 의해 연산 처리를 실시할 것을 선택한 대상에 관한 정보를 제시하는,
    정보 처리 장치.
  13. 제10항에 있어서, 상기 연산부는, 상기 처리부에 의한 연산 처리를 생략한 대상에 관한 정보를 제시하는,
    정보 처리 장치.
  14. 제1항에 있어서, 상기 제어부는, 외부로부터의 지시에 기초하여, 상기 처리부에 의해 연산 처리를 실시할 대상을 변경하는,
    정보 처리 장치.
  15. 제1항에 있어서, 상기 정보 처리 장치는 차량에 적용되고,
    상기 제어부는, 상기 처리부의 연산 능력에 충분한 여력이 없는 경우에, 상기 차량의 차속 저하를 지시하는,
    정보 처리 장치.
  16. 제1항에 있어서, 상기 제어부는, 상기 처리부의 연산 능력에 충분한 여력이 없는 경우에, 전력 확보를 지시하는,
    정보 처리 장치.
  17. FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리 스텝과,
    다른 센서의 검출 결과에 기초하여 상기 처리 스텝에 있어서의 연산 처리의 방식을 제어하는 제어 스텝
    을 갖는 정보 처리 방법.
  18. FCM 방식의 레이더의 검출 신호를 연산 처리하는 처리부,
    다른 센서의 검출 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
    로서 컴퓨터를 기능시키도록 컴퓨터 가독 형식으로 기술된 컴퓨터 프로그램.
  19. 차량에 탑재된 레이더 및 기타 차량 탑재 센서와,
    상기 차량 탑재 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
    상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
    상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부
    를 구비하는 정보 처리 시스템.
  20. 이동체와,
    상기 이동체에 탑재된 레이더 및 기타 센서와,
    상기 기타 센서의 검출 신호에 기초하여 인식 처리를 행하는 인식부와,
    상기 레이더의 검출 신호를 FCM 방식에 의해 연산 처리하는 처리부와,
    상기 인식부에 의한 인식 결과에 기초하여 상기 처리부에 있어서의 연산 처리의 방식을 제어하는 제어부와,
    상기 처리부에 의한 처리 결과에 기초하여 상기 이동체를 제어하는 이동체 제어부
    를 구비하는 이동체 장치.
KR1020217002229A 2018-08-09 2019-07-23 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치 KR20210040947A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-150476 2018-08-09
JP2018150476 2018-08-09
PCT/JP2019/028923 WO2020031689A1 (ja) 2018-08-09 2019-07-23 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置

Publications (1)

Publication Number Publication Date
KR20210040947A true KR20210040947A (ko) 2021-04-14

Family

ID=69413580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217002229A KR20210040947A (ko) 2018-08-09 2019-07-23 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치

Country Status (6)

Country Link
US (1) US20210302570A1 (ko)
EP (1) EP3835823B1 (ko)
JP (1) JP7374098B2 (ko)
KR (1) KR20210040947A (ko)
CN (1) CN112534297A (ko)
WO (1) WO2020031689A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210389448A1 (en) * 2018-11-14 2021-12-16 Sony Group Corporation Control device, control method and sensor control system
JP7165093B2 (ja) * 2019-03-29 2022-11-02 本田技研工業株式会社 車両制御システム
US11435439B2 (en) * 2019-08-19 2022-09-06 Waymo Llc Multibounce target mitigation
JP7125969B2 (ja) * 2020-10-28 2022-08-25 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11754666B2 (en) * 2021-02-12 2023-09-12 Aptiv Technologies Limited Radar detection prioritization based on downstream feedback
US20240103160A1 (en) * 2022-09-28 2024-03-28 DC-001, Inc. dba Spartan Radar Systems and methods for scheduling radar scan patterns in a vehicular radar system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016003873A (ja) 2014-06-13 2016-01-12 株式会社デンソー レーダ装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315080A (ja) * 1991-04-11 1992-11-06 Fujitsu Ten Ltd 車間距離測定装置
JP4016826B2 (ja) * 2002-12-10 2007-12-05 株式会社デンソー 物標識別方法及び装置、プログラム
DE102004038494A1 (de) * 2004-08-07 2006-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
DE102007002197A1 (de) * 2007-01-16 2008-07-17 Siemens Ag Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
JP2009058316A (ja) * 2007-08-31 2009-03-19 Fujitsu Ten Ltd レーダ装置、物体検出方法、及び車両
JP2009181315A (ja) * 2008-01-30 2009-08-13 Toyota Motor Corp 物体検出装置
US8629903B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
JP5977972B2 (ja) * 2012-03-19 2016-08-24 富士通テン株式会社 レーダ装置
JP6212880B2 (ja) * 2013-03-04 2017-10-18 株式会社デンソー 物標認識装置
EP3164860A4 (en) * 2014-07-03 2018-01-17 GM Global Technology Operations LLC Vehicle cognitive radar methods and systems
JP6398689B2 (ja) 2014-12-18 2018-10-03 沖電気工業株式会社 信号処理装置、信号処理方法及びプログラム
JP2018059813A (ja) 2016-10-05 2018-04-12 株式会社デンソーテン レーダ装置および物標検出方法
JP6832167B2 (ja) * 2017-01-17 2021-02-24 株式会社デンソーテン レーダ装置および物標検出方法
WO2019008640A1 (ja) * 2017-07-03 2019-01-10 三菱電機株式会社 信号処理装置、信号処理方法、信号処理プログラム及びレーダシステム
JP6787842B2 (ja) 2017-07-07 2020-11-18 株式会社Soken レーダ装置
JP2019066284A (ja) * 2017-09-29 2019-04-25 株式会社デンソーテン レーダ装置およびレーダ装置の制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016003873A (ja) 2014-06-13 2016-01-12 株式会社デンソー レーダ装置

Also Published As

Publication number Publication date
CN112534297A (zh) 2021-03-19
US20210302570A1 (en) 2021-09-30
JP7374098B2 (ja) 2023-11-06
WO2020031689A1 (ja) 2020-02-13
EP3835823A4 (en) 2021-08-11
EP3835823B1 (en) 2024-01-31
EP3835823A1 (en) 2021-06-16
JPWO2020031689A1 (ja) 2021-08-12

Similar Documents

Publication Publication Date Title
US11531354B2 (en) Image processing apparatus and image processing method
US20200241552A1 (en) Using classified sounds and localized sound sources to operate an autonomous vehicle
US11155268B2 (en) Utilizing passenger attention data captured in vehicles for localization and location-based services
JP7374098B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
US20210116930A1 (en) Information processing apparatus, information processing method, program, and mobile object
WO2017057055A1 (ja) 情報処理装置、情報端末、及び、情報処理方法
US11100675B2 (en) Information processing apparatus, information processing method, program, and moving body
US11915452B2 (en) Information processing device and information processing method
US11959999B2 (en) Information processing device, information processing method, computer program, and mobile device
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
US20210297633A1 (en) Information processing device, information processing method, information processing program, and moving body
WO2020183892A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
US20220277556A1 (en) Information processing device, information processing method, and program
JP2022113054A (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
US20200357284A1 (en) Information processing apparatus and information processing method
US20240012108A1 (en) Information processing apparatus, information processing method, and program
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20230267746A1 (en) Information processing device, information processing method, and program
WO2023021756A1 (ja) 情報処理システム、情報処理装置、及び情報処理方法
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
US20240019539A1 (en) Information processing device, information processing method, and information processing system
JP2023069374A (ja) 情報処理装置、情報処理方法およびプログラム