캔위성 기반 재난 현장 상황 인식 · 해룡 CANSS

낙하하며 현장을 읽는,
재난 인텔리전스.

캔위성이 재난 지역 상공에서 낙하하는 동안, YOLOv8 AI가 요구조자·화재·붕괴 건물을 실시간 탐지하고 GPS 좌표로 변환해 지도에 표시합니다. 한 번의 투하, 전체 현장 파악.

작동 방식 보기 기술 사양 보기
DROPSLAM — 재난 현장 상황 인식 지도 // 임무-0047
고도 247m LTE 연결됨 YOLOv8 추론 중 UTC 00:00:00
붕괴 건물 // CONF 0.91
화재·연기 // CONF 0.87
요구조자 // CONF 0.74
요구조자 // CONF 0.68
차량 // CONF 0.82
차량 // CONF 0.79
37.2784°N 127.0438°E · 대전 · GRID XJ-9847
Z:15 · 1:2500
4
탐지 클래스
요구조자·차량·화재·붕괴
56%
항공뷰 평균 F1 스코어
YOLOv8-M + SAHI 기준
2
리액션 휠 자세 안정화
Pitch · Roll PID 제어
~72h
재난 골든타임 내 대응
단 1회 투하로 현장 파악

투하. 안정화. 탐지. 매핑.

4단계 파이프라인. 캔위성이 낙하하는 동안 모든 것이 자동으로 처리되고, 착지 후 지도 하나로 현장 전체를 파악합니다.

01 — 투하

공중 투하

기구에서 캔위성을 분리하면 낙하산이 전개됩니다. 하강하는 동안 카메라가 재난 지역 하향 영상을 연속 촬영하며, GPS·IMU·기압 센서 데이터와 타임스탬프 기준으로 동기화됩니다.

02 — 안정화

2축 리액션 휠

Pitch·Roll 축에 독립 배치된 리액션 휠이 PID 제어로 낙하 중 자세 흔들림을 능동적으로 억제합니다. 흔들림을 줄여 AI 탐지와 GPS 좌표 변환의 정확도를 높입니다.

03 — 탐지

YOLOv8 AI 분석

렌즈 왜곡 보정·블러 프레임 필터링 후 YOLOv8-M + SAHI로 4개 클래스를 탐지합니다. 항공 시점 데이터셋(VisDrone, AIDER, RescueNet)으로 파인튜닝해 고도 250m에서 최적화됩니다.

04 — 매핑

GPS 매핑

탐지된 객체의 픽셀 좌표를 핀홀 모델 + IMU 자세 보정 + 고도 기반 삼각법으로 GPS 좌표로 변환합니다. 다시점 삼각측량으로 정확도를 높여 Google Maps 기반 상황 인식 지도로 출력합니다.

기존 드론 SAR의 한계를
넘어선 접근.

넓은 현장, 짧은 골든타임, 무너진 인프라. 가장 극한의 조건을 전제로 설계했습니다.

항공 시점 특화 AI

기존 COCO 학습 모델은 항공뷰에서 정확도가 크게 떨어집니다. VisDrone·AIDER·RescueNet·Kaggle Fire-Smoke 데이터셋으로 파인튜닝된 YOLOv8-M은 고도 250m 낙하 환경에 최적화됩니다.

SAHI 소형 객체 탐지

고도 250m에서 사람은 이미지 내 수 픽셀에 불과합니다. Slicing Aided Hyper Inference(SAHI)가 이미지를 슬라이스로 분할해 각각 탐지 후 병합 — 추가 학습 없이 소형 객체 탐지 성능을 대폭 향상합니다.

다시점 삼각측량

낙하하면서 서로 다른 고도·위치에서 동일 객체를 반복 관측합니다. 각 시점의 관측 각도와 고도 차이를 이용한 삼각측량으로 활용 프레임이 많을수록 GPS 좌표 정확도가 향상됩니다.

2축 리액션 휠 자세 안정화

DC 모터 + 3D 프린팅 플라이휠(외경 38mm)이 Pitch·Roll 축 흔들림을 PID 제어로 억제합니다. 외부 구조물 없이 캔위성 내부만으로 능동 제어하며, 영상 모션블러를 줄여 탐지 정확도를 높입니다.

LTE 실시간 업링크

LTE 모듈을 통해 낙하 중 GPS 위경도·IMU 자세각·기압센서 고도 및 영상을 지상국 노트북에 실시간 전송합니다. 별도 전용 장비 없이 노트북 + Python 클라이언트만으로 수신합니다.

Google Maps 기반 상황 인식 지도

탐지된 모든 객체가 종류별 마커와 히트맵으로 실제 지도 위에 시각화됩니다. 구조대원이 지도 하나만으로 요구조자 위치·화재 확산 구역·붕괴 위험 구역을 즉시 파악할 수 있습니다.

실제 부품, 실제 테스트,
실제 제약 조건.

Onshape CAD 설계, 3D 프린팅, 학교 물리실에서 만들어진 캔위성입니다.

하드웨어 — CanSat 탑재 부품
메인보드Raspberry Pi 5
카메라Raspberry Pi Camera Module
IMUMPU-6050 (자이로 + 가속도)
통신LTE Module
리액션 휠Pololu 15:1 Micro Metal × 2
모터 드라이버Pololu TB6612FNG × 2
플라이휠3D 프린팅 · 외경 38mm · 5mm
자세 제어Pitch + Roll PID 독립 제어
소프트웨어
AI 모델YOLOv8-M + SAHI
탐지 클래스사람·차량·화재연기·붕괴건물
파인튜닝 데이터VisDrone / AIDER / RescueNet
좌표 변환핀홀 모델 + 다시점 삼각측량
제어 펌웨어C++ (PID) + Python (센서)
시각화Google Maps API
dropslam-pipeline · 임무-0047
$ python detect.py --model yolov8m_sahi
 
# 데이터 전처리
timestamp_sync OK
lens_undistort OK
blur_filter 43 frames dropped
 
# YOLOv8-M + SAHI 추론
person CONF 0.74 frame #201
vehicle CONF 0.82 frame #136
fire CONF 0.87 frame #089
collapse CONF 0.91 frame #142
 
# GPS 좌표 변환
pinhole_model applied
imu_correction roll±1.2° pitch±0.9°
triangulation 217 frames fused
 
output maps.html 생성 완료
 
$

해룡 CANSS —
KAIST 캔위성 대회 출전팀.

3명의 팀원이 학교 물리실에서 주 12시간, 직접 설계하고 제작합니다.

CEO · Co-founder

"리액션 휠의 목표는 모든 흔들림 제거가 아닙니다. AI 탐지와 GPS 좌표 변환의 정확도에 영향을 주는 수준의 흔들림을 줄이는 것입니다. 그 선을 정확히 찾는 것이 핵심입니다."

YSW
윤승원
자세 안정화 · 리액션 휠 · PID
Co-founder · CTO

"기존 SOTA 모델도 항공뷰에서 사람 Recall이 32.8에 불과합니다. 항공 시점 데이터셋으로 파인튜닝하고 SAHI를 적용하는 것이 이 문제의 핵심 해결책입니다."

JW
원조운
AI · CV · SW 개발
Co-founder

"센서, 모터, 카메라, 배선을 캔위성 66mm 원통 안에 모두 넣어야 합니다. Onshape로 설계하고 3D 프린팅으로 뽑아 물리실에서 조립합니다. 무게중심 하나하나가 중요합니다."

MHS
문호산
회로 설계 · 전력관리 · 제작
// 문의 및 협력

결과물이 궁금하신가요?
함께 이야기해요.

대회 종료 후 소스코드, 데이터 파이프라인, 파인튜닝 모델 가중치를 GitHub에 공개할 예정입니다. 협력이나 문의는 contact@dropslam.cloud 또는 아래로 연락 주세요.

스팸 없음. 직접 답장 드립니다.