캔위성이 재난 지역 상공에서 낙하하는 동안, YOLOv8 AI가 요구조자·화재·붕괴 건물을 실시간 탐지하고 GPS 좌표로 변환해 지도에 표시합니다. 한 번의 투하, 전체 현장 파악.
4단계 파이프라인. 캔위성이 낙하하는 동안 모든 것이 자동으로 처리되고, 착지 후 지도 하나로 현장 전체를 파악합니다.
기구에서 캔위성을 분리하면 낙하산이 전개됩니다. 하강하는 동안 카메라가 재난 지역 하향 영상을 연속 촬영하며, GPS·IMU·기압 센서 데이터와 타임스탬프 기준으로 동기화됩니다.
Pitch·Roll 축에 독립 배치된 리액션 휠이 PID 제어로 낙하 중 자세 흔들림을 능동적으로 억제합니다. 흔들림을 줄여 AI 탐지와 GPS 좌표 변환의 정확도를 높입니다.
렌즈 왜곡 보정·블러 프레임 필터링 후 YOLOv8-M + SAHI로 4개 클래스를 탐지합니다. 항공 시점 데이터셋(VisDrone, AIDER, RescueNet)으로 파인튜닝해 고도 250m에서 최적화됩니다.
탐지된 객체의 픽셀 좌표를 핀홀 모델 + IMU 자세 보정 + 고도 기반 삼각법으로 GPS 좌표로 변환합니다. 다시점 삼각측량으로 정확도를 높여 Google Maps 기반 상황 인식 지도로 출력합니다.
넓은 현장, 짧은 골든타임, 무너진 인프라. 가장 극한의 조건을 전제로 설계했습니다.
기존 COCO 학습 모델은 항공뷰에서 정확도가 크게 떨어집니다. VisDrone·AIDER·RescueNet·Kaggle Fire-Smoke 데이터셋으로 파인튜닝된 YOLOv8-M은 고도 250m 낙하 환경에 최적화됩니다.
고도 250m에서 사람은 이미지 내 수 픽셀에 불과합니다. Slicing Aided Hyper Inference(SAHI)가 이미지를 슬라이스로 분할해 각각 탐지 후 병합 — 추가 학습 없이 소형 객체 탐지 성능을 대폭 향상합니다.
낙하하면서 서로 다른 고도·위치에서 동일 객체를 반복 관측합니다. 각 시점의 관측 각도와 고도 차이를 이용한 삼각측량으로 활용 프레임이 많을수록 GPS 좌표 정확도가 향상됩니다.
DC 모터 + 3D 프린팅 플라이휠(외경 38mm)이 Pitch·Roll 축 흔들림을 PID 제어로 억제합니다. 외부 구조물 없이 캔위성 내부만으로 능동 제어하며, 영상 모션블러를 줄여 탐지 정확도를 높입니다.
LTE 모듈을 통해 낙하 중 GPS 위경도·IMU 자세각·기압센서 고도 및 영상을 지상국 노트북에 실시간 전송합니다. 별도 전용 장비 없이 노트북 + Python 클라이언트만으로 수신합니다.
탐지된 모든 객체가 종류별 마커와 히트맵으로 실제 지도 위에 시각화됩니다. 구조대원이 지도 하나만으로 요구조자 위치·화재 확산 구역·붕괴 위험 구역을 즉시 파악할 수 있습니다.
Onshape CAD 설계, 3D 프린팅, 학교 물리실에서 만들어진 캔위성입니다.
3명의 팀원이 학교 물리실에서 주 12시간, 직접 설계하고 제작합니다.
"리액션 휠의 목표는 모든 흔들림 제거가 아닙니다. AI 탐지와 GPS 좌표 변환의 정확도에 영향을 주는 수준의 흔들림을 줄이는 것입니다. 그 선을 정확히 찾는 것이 핵심입니다."
"기존 SOTA 모델도 항공뷰에서 사람 Recall이 32.8에 불과합니다. 항공 시점 데이터셋으로 파인튜닝하고 SAHI를 적용하는 것이 이 문제의 핵심 해결책입니다."
"센서, 모터, 카메라, 배선을 캔위성 66mm 원통 안에 모두 넣어야 합니다. Onshape로 설계하고 3D 프린팅으로 뽑아 물리실에서 조립합니다. 무게중심 하나하나가 중요합니다."
대회 종료 후 소스코드, 데이터 파이프라인, 파인튜닝 모델 가중치를 GitHub에 공개할 예정입니다. 협력이나 문의는 contact@dropslam.cloud 또는 아래로 연락 주세요.
스팸 없음. 직접 답장 드립니다.