H-mobility 자율주행

자율주행 자동차 인지 기술(기초)

by pro robo 2024. 3. 31. 22:25

feat. 한양대 최준원 교수

인지

센서 신호를 이용하여 주변의 동적객체들을 검출하고 객체들의 움직임과 의도를 알아내는 작업

측위

주변의 정적 주행 환경을 파악하여 정밀지도를 기반으로 자율주행차의 위치를 추정하는 작업

판단

인지와 측위 결과를 기반으로 경로계획을 하고 장애물을 피하는 등의 상위 판단을 내리는 작업

  • 경로 계획(path planning)
  • 의사 결정

제어

판단의 결과에 따라 차량을 운전하는 작업

자율주행 플랫폼

정확한 측위를 위해 gps와 별도의 기술을 탑재

센서 및 차량 정보 받음

차량 네트워크

  • 인프라
    • 클라우드 : 중심에 있는 컴퓨팅 자원
    • 엣지 : 차량 가까이에 있는 컴퓨팅 자원
  • 통신 V2X(Vehicle to X)
    • 차량간 통신(V2V)
    • 차량과 인프라 간 통신 (V2I)
  • -유무선망을 통해 다른 차량 및 도로 등 인프라와 정보 교환

자율주행 자동차 인지기술

[자동차 센서 구성]

카메라 센서 : 운전자보조시스템(ADAS)에 가장 많이 사용

레이더 센서: 물체의 거리, 각도, 속도 등의 정보를 얻어냄

라이다 센서 : 고출력 펄스레이저 송출반사의 신호의 시간차를 분석하여 3차원 공간을 스캐닝(포인트 클라우드 형태로 표현

[인지 기술 개념]

  • 동적 객체의 거동 예측
    • 동적 객체의 시간적인 움직임을 분석하여 미래의 움직임 추정

[딥러닝]

  • CNN(Convolutional Neural Network)
    • 카메라 영상을 기반으로 동적 객체와 정적 객체 검출
  • RNN(Recurrent Neural Network)
    • 주변 동적 객체의 과거 경로로부터 미래 경로 예측(Long Shor Term Nemory[LSTM] 모델)

[카메라]

  • 카메라 내부 파라미터
    • 월드 좌표계와 카메라 좌표계의 변환에 영향을 주는 카메라 내부의 기계적인 셋팅을 설명하는 파라미터
    • 초점거리 : 렌즈의 중심과 이미지 센서 (CMOS 또는 CCD)와의 거리
    • Principle Point : 렌즈의 중심에서 이미지 센서에 수직으로 내린 점의 영상 좌표
    • 비대칭 계수 : 이미지 센서의 Cell Array의 Y축이 기울어진 정도
  • 카메라 캘리브레이션
    • 월드 좌표계에서 카메라 좌표계의 변환을 알기 위해 카메라의 내부 파라미터 값을 알아내고 카메라 렌즈에 의해 생긴 왜곡을 보정하는 과정
    • 자율주행차가 월드 좌표계에서의 물체 상태나 환경을 카메라 영상을 이용하여 이해하기 위해서는 카메라 캘리브레이션이 수행되어아 함
  • 카메라 기반 물체 검출 기술
    • 딥러닝 기반 물체 검출 방법
      • 1단계: 간단한 구조로 인해 계산시간이 빠름(YOLO, SSD, RetinaNet)
      • 2단계: 검출 정확도가 더 높음 (Faster RCNN, Mask RCNN)
    • 카메라 기반 물체 추적 기술
      • 각 비디오 프레임에서 얻어진 물체 검출 결과를 이용하여 시간에 따라 움직이는 물체를 추적하는 기술
      • 움직이는 물체를 추적하기 위해서는 현재 비디오 프레임과 이전 비디오 프레임에서 얻어진 물체 검출 결과 중 같은 물체끼리 연결해 주는 과정 필요
      • 같은 물체로 판명되면 ID번호 부여

[레이더 신호]

  • 특성
    • 24GHz와 77GHz의 부근의 레이더 주파수 대역 사용(77GHz가 안테나 모듈의 크기를 작게 만들 수 있어서 지향함)
    • 전자기파는 날씨, 밝기, 시야가림 등의 환경 변화에 강한 특성을 보임
    • 클러터 문제 : 물체가 없는 위치에 신호가 검출되어 오탐률을 높임
      • 실제 물체와 클러터를 구별할 수 있도록 고성능 신호처리 알고리즘 필요
  • 물체 검출
    1. 레이더 신호의 주파수 분석
    • 수신 신호에 고속 푸리에 변환 기법을 적용하여 물체 검출 수행
    • 주파수 성분에 배경 잡음과 클러터 등의 간섭 신호들이 존재
      • 일관된 오탐률을 유지하는 기술인 **CFAR(Constant False Alarm Rate)**적용
    1. 배열 안테나를 이용한 횡방향 각도 측정
    • 하나 이상의 안테나 원소로 구성된 배열안테나 이용
    • 수신된 신호의 위상 차이를 이용하여 수신 신호의 각도 측정

[라이다]

  • 직진성이 강한 고출력 펄스 레이저를 송신하고 수신 시 지연 시간을 분석하여 물체 탐지와 거리 측정 수행
  • 회전형과 고정형
    • 회전형 : 센서를 직접 기계적으로 회전하여 넓은 각도의 환경 정보 획득
    • 고정형 : 환경 정보를 획득하고자 하는 각도에 설치하여 운용
  • 라이다의 구현방식
    • 기계식 라이다 : 기계적인 모터를 사용하여 주변 영역을 스캐닝
    • MEMS 라이다 : MEMS 기술을 이용하여 작은 반사 거울을 제어하여 주변 영역을 스캐닝
    • 플래시 라이다 : 단일 레이저 빔을 광 시야각으로 확장하여 송신하고 반사되는 레이저 빔을 다중 배열 수신 소자를 통하여 수신
    • FMCW 라이다 : 레이더에 사용되는 FMCW 신호 분석 원리를 적용 (거리&속도 측정가능)
  • 물체 검출
    • 조감도 영역의 물체 검출
      • 주변 동적 객체에 대한 필수 정보 제공
    • 복셀 기반 라이다 처리
      • 라이다 포인트 클라우드는 3차원 영역에 분포된 무수히 많은 점으로 표현되는데, 이 점들을 한번에 처리하기에는 계산량이 너무 많음 -> 주변의 3차원 영역을 복셀(작은 3차원 블록)로 나누게 됨
      • 각 복셀 안에 있는 라이다 포인트 클라우드 처리 -> 물체에 대한 정보 추출
      • 전체 1% 미만에 해당하는 복셀들만 포인트가 차 있음, 대부분은 비어있음 -> 희소한 포인트 분포를 해결하기 위해 효율적인 계산 방식 필요
      라이다 포인트 클라우드를 직접 처리
      • 포인트넷(딥러닝 방법) 적용 -> 포인트 클라우드에서 정보 추출
      • 포인트 수가 많은 경우 계산량을 줄이기 위한 방법 필요

  • 물체 추적

  • 3D 객체 검출 결과 : 포인트 클라우드 데이터를 이용하여 물체 검출 결과 도출
  • 데이터 연결 : 현재 관리하고 있는 물체들의 트랙과 검출 결과를 연결
  • 메모리의 출현과 퇴장 : 새로 출현하거나 퇴장하는 물체에 대해 결정하는 로직을 설계해야함
  • 3D 필터 : 연결된 검출 결과를 물체들의 트랙에 추가한 후 필터링

위의 과정을 계속 반복하면서 움직임 추적

[복합센서 적용 기술]

  • 카메라 센서
    • 단점 : 날씨, 조도 변화 등에 약함, 거리 측정 정확도가 높지 않음
    • 장점 : 해상도가 높음, 색상, 형태 등의 정보 취득 가능
  • 레이더 센서
    • 단점 : 클러터 등으로 인한 오탐률이 높음, 횡방향 측정 정확도가 낮음
    • 장점 : 날씨, 조도 변화 등에 강함
  • 라이다 센서
    • 단점 : 가격이 높음, 습도에 약함
    • 장점 : 거리 측정 정확도가 높음, 고가 라이다의 경우 해상도도 높은 편, 조도 변화에 대한 영향은 없음

→ 두개 이상의 센서를 사용하여 서로 보완할 것

  • 초기 융합(Early Fusion)
    • 장점 : 인지 처리를 한번만 수행하면 됨(계산량이 적음)
    • 단점 : 데이터의 분포가 확연히 다를 경우 융합에 의한 성능 이득이 낮음(예>카메라+라이다 조합)
  • 후기 융합(Late Fusion)
    • 장점 : 최종 단계에서 융합하기 때문에 센서 오작동에 대한 분석 가능(오작동 한 센서 인지 가능, 센서 인지 결과에 대한 신뢰도 파악)
    • 단점 : 모든 센서 데이터에 대해 인지 처리를 수행해야 함(계산량이 많음)
  • 중기 융합(Intermediate Fusion)
    • 초기융합+후기 융합
    • 최근 딥러닝 기술이 인지에 적용되면서 중기 융합 전략 선호됨 -> 더 좋은 성능 달성 가능

[센서융합 기술 사례]

카메라, 레이더 센서 융합

  • 카메라, 레이더 캘리브레이션 적용
  • 카메라의 데이터 표현은 카메라 좌표계(2차원), 레이더의 데이터 표현은 3차원 좌표계(3차원) -> 데이터를 융합할 수 있는 방법 필요(변환 필요 -> 카메라, 레이더 캘리브레이션 적용, 2차원과 3차원이기 때문에 일대다 관계)
  • 연구 개발 진행중
  • 전략
  1. 레이더 검출 결과 또는 중간 단계 결과를 카메라 좌표계로 투영하여 병합
  2. 카메라 영상 기반 물체 검출 결과 또는 중간 단계 결과를 레이더의 3차원 좌표계로 변환하여 융합인공지능 기술을 사용하는 전략 필요

카메라, 라이다 센서 융합

  • 카메라, 라이다 캘리브레이션 적용
  • 카메라 중심 융합기술과 라이다 중심 융합기술 존재
  • 라이다의 해상도에 따라 검출 성능 좌우
  • 카메라의 데이터 표현은 카메라 좌표계(2차원), 라이더의 데이터 표현은 3차원 좌표계(3차원) -> 변환 필요!
  • 라이다 데이터의 해상도가 높지 않은 경우 카메라가 메인! 라이다의 데이터를 카메라 좌표계로 투영
  • 라이다 데이터의 해상도가 높은 경우 라이다가 메인! 카메라의 데이터를 3차원 좌표계로 변환

카메라, 레이더, 라이다 센서융합

  • 인지의 높은 신뢰성이 요구되는 레벨4 이상의 자율주행을 위해 필요
  • 실시간 센서융합 처리를 위한 알고리즘, 하드웨어 구현 필요(계산량 많기 때문)

[고성능 인지를 위한 하드웨어/소프트웨어/통신 플랫폼]

고성능 인지 요구 사항

  • 대용량의 센서 데이터를 고속으로 실시간으로 처리할 수 있는 능력
  • 인지를 위한 기능들을 통합적으로 처리하고 결과를 주고받을 수 있는 능력
  • 대용량의 데이터를 수집, 저장, 송신할 수 있는 능력
  • 고신뢰성, 저전력 요구 사항을 만족할 수 있는 능력
  • 하드웨어, 소프트웨어의 오류에 대한 강인성과 오류 검출 능력
  • 인지 정보를 주변 차량, 보행자, 인프라와 무선으로 주고 받을 수 있는 능력

고성능 인지를 위한 HW

  • 전통적인 자동차에서는 ECU(컴퓨팅 하드웨어 칩셋) 사용 -> 간단한 주행 관련 컴퓨팅 수행, 자율주행을 위한 고성능 컴퓨팅에는 맞지 않음 -> 고성능 컴퓨팅을 수행하기 위한 차량용 반도체 프로세서로의 진화 필요
  • 차량용 고속 네트워크 링크 필요
  • 실시간으로 전달되는 센서 데이터를 고속으로 처리하기 위한 프로세서 필요
  • 뉴럴 네트워크 연산을 수행하기 위한 가속기 및 병렬처리 프로세서 필요
  • 오류에 대한 강인성을 확보하기 위한 하드웨어 설계 필요(예> 듀얼 프로세서 탑재)

고성능 인지를 위한 SW

  • 안드로이드와 같은 오픈 소프트웨어 플랫폼 필요
  • AI를 처리할 수 있는 소프트웨어 필요
  • 자율주행 개발 프로세스(개발-시뮬레이션-테스트-구현)를 총체적으로 설계 가능한 개발자 소프트웨어 플랫폼 필요
  • 설계 소프트웨어 필요(딥러닝 모델 압축-고정소수점 구현-하드웨어 경량화)

고성능 인지를 위한 통신 플랫폼

  • 자율주행 통신 플랫폼 : V2X 기술(Vehicle To Everything, 차량이 유무선망을 통해 도로 위의 다양한 요소와 소통하는 기술), OTA 기술(Over the air, 자동차 무선업데이트)
  • 통신 플랫폼 사용 시 정보 보안 및 개인정보 보호 기술 중요
  • V2X 기술
    • 자율주행차, 인프라, 엣지 -> (주행관련 데이터 정보 수집 -> 주변 차량으로 정보 전송)
    • 차량 또는 보행자와 사이드링크를 통해 인지 정보 공유 -> 가려서 보이지 않는 곳(음영)까지 인지 가능, 군집 주행 가능(군집 주행 : 두 대 이상의 차량이 하나의 대열을 이루어 자동으로 주행하게 되는 시스템)
    • 인프라와 주변 동적 객체로부터 수신된 주행 관련 정보 + 자율주행 차량 센서로 취득한 정보 -> 협력 인지 수행
    • 안전한 자율주행을 위해 초저지연(Low latency) 통신 기술 필요
  • OTA 기술
    • 인지 소프트웨어 기능을 주기적으로 업그레이드
    • 통신 플랫폼 사용 시 정보보안 및 개인정보 보호 기술 중요

AI 기반 인지시스템을 위한 지능형 반도체 기술

그래픽 프로세싱 유닛(GPU)

  • 병렬처리에 특화된 범용 프로세서
  • 기존에는 그래픽 처리 목적, 최근에는 AI를 위한 반도체
  • NVIDIA의 기술력이 가장 앞서 있음
  • 자율주행에서는 주로 클라우드 서버에서 학습을 위한 용도로 사용

뉴럴 프로세싱 유닛(NPU)

  • 엣지나 디바이스에서 사용하기 위한 저전력, 고속 AI 반도체 칩셋
  • 딥러닝에 많이 사용되는 계산을 빠르게 저전력으로 수행하는 가속기 사용
  • 예>삼성 엑시노스, 테슬라 FSD 컴퓨터
  • 현재 국내외 많은 기업들이 NPU 개발에 뛰어듬

AI 기반 인지를 위한 지능형 반도체 사례

  • 테슬라 FSD(Full Self Driving) 컴퓨터
    • 칩셋과 파워서플라이를 여분으로 2개를 사용 -> 고장이나 오류 발생 시 계산의 신뢰성을 높임
    • 카메라, 레이더, GPU, 지도, IMU센서, 초음파, 조향각 등 센서 정보를 수신할 수 있는 인터페이스 장착
    • 많은 전력 소모 시 차량에 부담-40와트 이하의 전력 소모량
    • 가속기를 장착하여 뉴럴네트워크 연산을 50 테라 초당 명령 수 속도로 수행 가능
    • 일반적인 전처리, 후처리 등의 범용계산을 위해 GPU와 CPU 장착
    • 고성능 영상처리 칩과 고성능 인코더 장착
  • 구글 TPU(Tensor Processing Unit)
    • 구글에서 디자인한 가속기 아키텍쳐
    • NVIDIA GPU V100보다 연산속도 27배 빠름
    • 최근 V3버전 : 1024개의 코어 사용, 강력한 병렬 연산 능력
    • 가격 저렴
    • 8비트 연산 기반의 딥러닝 모델 설계 지원 -> 빠르게 연산 가능

자율주행을 위한 지능형 반도체 발전 방향

  • 하드웨어 플랫폼 + 소프트웨어 플랫폼 -> 자율주행 경쟁력 좌우
  • 하드웨어 플랫폼 : 교체가 어려움, 독점 가능 -> 기술 선점 중요
  • 자동차 하드웨어의 안전성 중요(ISO26262와 같은 자동차 하드웨어의 기능 안전성에 대한 요구사항을 만족해야 함)
  • 딥러닝 기술과 자율주행 시스템이 계속 진화될 것 -> 확장 가능성을 지원하는 하드웨어 플랫폼 필요

[고정밀 지도 기반 자율주행 개요]

고정밀 지도 기반 자율주행의 필요성

  • 센서만으로 주변의 정적 주행 환경 및 도로, 교통 환경에 대한 정보를 수집하는 것은 한계가 있음
  • 차량 주위의 정적 환경에 대한 정밀한 정보를 제공함으로써 자율주행의 안전성 향상
  • 이미 오프라인에서 구축한 후 활용 -> 시스템, 계산량 오버헤드가 적은 편
  • 고정밀 지도 : cm 단위의 정확도를 갖는 지도
  • 고정밀 지도 기반 자율주행의 장점
    1. 정확한 정적 환경 정보를 얻을 수 있기 때문에 자율주행 안정성 향상
    2. 주행, 교통 환경에 대한 빠르고 정확한 판단 가능
    3. 센서 데이터로부터 도로 정보를 정확히 얻기 위한 인지 기술의 부담을 덜어줌
  • 고정밀 지도를 사용하기 위해 요구되는 사항
    1. 주행 관련 도로 정보들이 표현되어 있어야 함
    2. 0.2m 이하의 매우 정밀한 정확도 요구됨
    3. 자율주행차가 고정밀 지도 위에서 자신의 위치를 알아내야 함 -> 맵 매칭을 효과적으로 수행하기 위한 환경 정보 포함 필요
    4. 도로, 주행 환경이 바뀔 때마다 실시간 업데이트 지원 필요 -> 클라우드에서 관리되는 것이 효과적
    5. 고정밀 지도가 업데이트될때마다 OTA를 이용하여 새로운 지도 정보를 자율주행 차량에 무선 전송

자율주행에서의 고정밀 지도의 활용

  1. 정밀 자율주행차 측위
    • 고정밀 지도를 활용하기 위해서 자율주행차의 지도상 위치를 정확히 파악하는 기술-> 맵매칭(센서 정보와 고정밀 지도 정보를 맵매칭하여 측위)
  2. 주행 경로 생성 및 예측
    • 차선과 같은 주행정보 이용 -> 차량의 주행 경로 생성
    • 도로의 곡류, 횡단보도 등의 교통 환경 반영 -> 상황 예측
    • 신호등, 표지판 등 위치 정보 활용 -> 인지 결과 대체, 인지 정확도 향상에 활용
  3. LDM 동적 정보 시스템(Local Dynamic Map) 활용
    • 인프라, 엣지, 자율주행차 등으로부터 얻은 동적 객체들의 위치와 상태를 고정밀 지도 위에 표현
    • 특정 지역에 주행 상황에 대한 종합적인 정보 표현 -> V2X를 통해 다른 자율주행차들과 공유 -> 원활한 자율주행 가능
    • 고정밀 지도에 대한 지속적 업데이트 수행
  4. 센서의 제한된 인식 범위 보완

[고정밀 지도 및 측위기술]

  • 센서가 감지해야 하는 정보를 지도 정보를 이용하여 보완!

GPS 위성 신호 분석

  • GPS 수신기는 대부분 차량에 장착되어 있음
  • 전파 수신 상황에 따라 위치 정밀도가 좌우됨
  • 위치 오차가 미터 단위이기 때문에 자율주행에 필요한 정확도 얻기 어려움
  • 음영지역 존재

RTK(Real time Kinematic) 기술

  • 정밀한 위치를 확보한 기준점의 반송파 오차 보정치를 적용하여 수 cm의 정밀도 표현(고정밀 이동측량 기법)
  • 장점 : 높은 측위 정확도
  • 단점 : 고가의 장비 가격, 음영지역 존재(위성 사용하기 때문)

관성항법 장치

  • IMU 등 관성 센서 정보를 활용하여 움직이는 이동 경로를 측정하는 방식
  • 단점 : 시간이 지속됨에 따라 오차가 지속적으로 누적되어 증가

고정밀 지도 기반 측위 기술

  • SLAM(Simultaneous localization and mapping)-로보틱스 분야지도 생성 + 측위 수행 동시에 함 -> 활발히 연구되어 옴
  • 자율주행에서는 MMS 기술(Mobile Mapping System, 이동식 도면화 시스템)을 이용하여 고정밀 지도를 미리 생성 -> 자율주행차는 주행시 고정밀 지도를 활용하여 측위만을 수행
  • 기존 측위 기술의 한계 극복환경 인식 센서 + 고정밀 지도 필요!> 맵매칭 방식!

맵매칭 방식의 측위기술

  1. Odometry 기술차량이 과거 위치에서부터 얼마만큼 움직였는지 측정
    • 시간이 갈수록 오차가 누적된다는 단점
  2. 맵매칭 기술
    • Odometry 기술 + 환경,GPS,IMU 센서 정보 -> 맵매칭 -> 고정밀 지도 위에 정확한 위치 측정
  • 측위 정확도를 향상시킬 수 있는 기술
  1. Odometry 정확도 향상 : 주행 시 자율주행 차량의 움직임에 따른 카메라, 라이다 등의 센서 데이터의 변화 분석
  2. 맵매칭 기술 정확도 향상 : 고정밀 지도에 어떤 환경 정보를 넣을 것인가 결정(예> 도로정보, 랜드마크), 센서로부터 지형에 관한 의미있는 정보 추출하여 맵과의 정보 매칭, 센서데이터와의 정밀한 맵매칭 알고리즘 개발(인공지능 도입)

[MMS 기반 고정밀 지도 구축 기술]

MMS의 개념

MMS(Mobile Mapping System, 이동식 도면화 시스템)

주행 중인 차량에 장착된 다양한 센서를 이용해 세밀한 지형 정보를 획득하여 지도 구축(사진 측량과 비슷)

수집 후에도 차선, 표지판 등을 위성사진 등을 통해 가공하는 후작업 필요 -> 상당한 시간과 비용 필요!

MMS 차량의 구성

  • DGPS(Differential Global Positioning System)
    • 2개 이상의 GPS 수신 신호를 이용하여 정밀도가 높은 위치 측정 가능
  • IMU(Inertial Measurement Unit)
    • 음영 지역에서도 움직임에 의한 상대 위치 변화 측정이 가능한 관성 센서 장치
  • 라이다
    • MMS 차량 윗부분에 장착되어 1초당 100만여개의 레이저를 발사하여 3차원 공간 스캐닝
  • DMI(Distance Measuring Instrument)
    • 바퀴 회전 수 측정을 통해 주행거리 측정
  • 관성항법장치 INS(Inertial Navigation System)
    • 자이로스코프를 통해 가속도를 구해 적분 -> 속도 계산 -> 이동거리 계산하는 장치

MMS 기반 고정밀 지도 구축 과정

  1. 작업 계획 수립
    • 작업지역 현황분석
    • 노선계획 수립
  2. MMS 시스템 구축
    • MMS 장비의 성능 및 품질 검사
  3. 기준점 선점 및 측량
    • GPS의 측정정확도가 좋지 않은 경우 -> 기준점의 수신신호 분석 -> 위치 측정 오차 보정(DGPS)
  4. MMS 표준자료 제작
    • 절대위치 측정 데이터 + 스캐너와 카메라로 취득한 데이터 -> 3차원 포인트 클라우드 데이터를 이용하여 지상영상자료 제작
  5. 포인트 클라우드 데이터 후처리 및 보정
  6. 객체 추출 후 품질 검사, 벡터 데이터 상대 정확도 검증
  7. 편집 및 정리 점검

[AI 기반 측위 기술]

자율주행을 위한 측위 기술

  • 측위를 위한 장비 : GPS, INS(관성항법 장치), RTK(실시간이동측위)> 자율주행차에 장착된 카메라, 레이더, 라이다 센서 등의 환경 인지 센서를 이용한 측위 방법 고려

  1. Odometry 기술 : 차량이 과거 위치에서부터 얼마만큼 움직였는지 측정
  2. 맵매칭 기술 : 센서 정보 + 고정밀 지도 정보 -> 맵매칭 -> 지도 위에 차량 위치 측정
  • Odometry 정확도 향상과 맵매칭 기술 정확도 향상에 AI 기술을 적용함으로써 측위의 정확도와 신뢰성 향상!

측위를 위한 AI 기술

AI 기반의 카메라, 라이다, 관성항법장치를 활용한 통합 Odometry 기술

  • 카메라 Visual Odometry 기술카메라 영상에 CNN 적용 -> 차량의 이동 위치를 직접 추정 -> 일관된 Odometry 성능을 얻음
  • 카메라의 움직임에 의한 영상 프레임 사이의 변활르 분석하여 차량의 이동 위치 추정
  • 라이다 Odometry 기술
  • 라이다 포인트의 시간적인 움직임을 분석하여 Odometry 수행
  • 통합 Odometry 기술
  • 관성항법 장치 + 카메라 또는 라이다 센서 데이터 -> Odometry 수행
  • AI 기반의 맵매칭 측위 기술(측위를 위한 맵생성)
    1. 지형 지도 : 주변 지형의 장면의 형태나 구조를 직접 표현 (깊이 복셀, 점, 메쉬 형태로 표현)
    2. 시맨틱 지도 : 랜드마크 또는 도로 정보들을 지형 지도에 추가하여 만든 형태
  • 맵매칭 알고리즘에서의 AI 적용
    1. 지형 지도 기반 측위 : 카메라 또는 라이다 센서 데이터 - 지형 지도 정보를 비교하여 위치 정보 추정딥러닝 모델 이용 -> 센서 데이터와 지형 지도로부터 특징값 추출 -> 특징값을 처리하여 위치 정보 추정
    2. 시맨틱 지도 기반 측위정적 주행 환경 객체 검출 -> AI 적용 -> 지도에 포함된 랜드마크 정보들과 종합하여 위치 추정