🌌 AI 깊이 맵 모델 경량화 리포트

본 프로젝트는 세계 최대 가전 박람회인 CES에서 시연될 AI 깊이 맵 모델의 성능을 최적화하기 위해 진행되었습니다. 기존의 복잡한 연산을 요구하는 ONNX 모델을 TensorRT로 변환하고, 다양한 엣지 디바이스에서 성능을 비교하여 최적의 디바이스 선택에 도움을 주었습니다.

AI 깊이 맵 모델

프로젝트 개요

깊이 맵(Depth Map)은 이미지나 영상에서 각 픽셀의 깊이 정보를 나타내는 맵으로, 자율주행, AR/VR, 3D 재구성 등 다양한 분야에서 핵심적으로 사용됩니다. 그러나 높은 정확도의 깊이 맵을 실시간으로 생성하기 위해서는 고성능의 하드웨어와 복잡한 연산이 필요합니다.

이에 따라, 저희 팀은 ONNX 형식의 AI 깊이 맵 모델을 TensorRT로 변환하여 모델의 실행 속도를 향상시키고, 다양한 NVIDIA Jetson 엣지 디바이스에서 성능을 비교하였습니다. 이를 통해 CES 시연에서 최적의 하드웨어 선택과 뛰어난 성능을 제공할 수 있었습니다.

구현 방법

  • 모델 변환 및 최적화: ONNX 형식의 모델을 TensorRT로 변환하여 실행 효율성을 높였습니다. TensorRT의 최적화 기능을 활용하여 모델의 추론 속도를 향상시켰습니다.
  • 성능 비교 및 분석: Jetson Orin Nano 8GB, Jetson Orin NX 16GB, AGX Orin 64GB 등의 엣지 디바이스에서 모델의 성능을 테스트하고 비교하여 최적의 디바이스를 선정했습니다.
  • 하드웨어 최적화: 각 디바이스의 연산 능력과 메모리 제한을 고려하여 연산 그래프를 최적화하고, 하드웨어 가속 기능을 적극적으로 활용했습니다.

엣지 디바이스 성능 비교

다양한 엣지 디바이스에서의 모델 성능을 비교하여 최적의 디바이스 선택에 도움을 주었습니다.

디바이스추론 속도(FPS)메모리 사용량전력 소비
Jetson Orin Nano 8GB25 FPS2 GB7 W
Jetson Orin NX 16GB45 FPS3 GB10 W
Jetson AGX Orin 64GB80 FPS5 GB15 W

이 성능 분석 결과를 토대로, 고객사는 시연 목적과 예산에 가장 적합한 디바이스를 선택하여 최상의 제품 시연을 진행할 수 있었습니다.

프로젝트 결과

ONNX 모델을 TensorRT로 성공적으로 변환하여 추론 속도를 크게 향상시켰습니다. 각 엣지 디바이스에서의 성능 비교 결과, 최적의 성능과 비용 효율성을 제공하는 디바이스를 선정할 수 있었습니다. 이를 통해 CES 시연에서 제한된 인력과 시간 속에서도 최고의 사용자 경험을 제공할 수 있었습니다.

고객사는 다양한 엣지 디바이스에서의 성능 데이터를 신속하게 받아볼 수 있었으며, 디바이스 선택에 대한 명확한 지침을 얻어 프로젝트 진행에 큰 도움을 받았습니다.

사용된 기술 및 도구

  • 모델 포맷: ONNX (.onnx) ➔ TensorRT (.engine)
  • 모델 최적화 기법: TensorRT 최적화, FP16 및 INT8 양자화
  • 하드웨어 플랫폼:
    • Jetson Orin Nano 8GB
    • Jetson Orin NX 16GB
    • Jetson AGX Orin 64GB
  • 개발 환경: NVIDIA JetPack SDK, CUDA, cuDNN

협력 기업 소개

본 프로젝트는 3D 센싱 기술의 선두주자인 Airy3D와의 협력을 통해 진행되었습니다. Airy3D는 독자적인 3D 센싱 기술을 보유하고 있으며, 이번 협력을 통해 그들의 기술과 저희의 AI 모델 최적화 역량을 결합하여 시너지를 극대화하였습니다.

향후 계획

본 프로젝트의 성공을 바탕으로, 다양한 산업 분야에서의 적용 가능성을 모색하고 있습니다. 특히 자율주행, 로봇 공학, 증강현실 등 실시간 깊이 정보가 필요한 분야에서의 활용을 기대하고 있습니다. 앞으로도 지속적인 연구와 개발을 통해 혁신적인 솔루션을 제공할 예정입니다.