본문 바로가기

반응형

AI

(48)
[ AI ] 컴퓨터 비전(Computer Vision) 분야 대표 추론 모델별 주요 기능·특징을 간단히 요약하기 🔹 분류(Classification) 계열ResNet (Residual Network)→ "잔차 연결(Skip Connection)"을 도입해 깊은 신경망 학습을 가능하게 한 모델. 이미지 분류의 기본 벤치마크.EfficientNet→ 모델 크기와 정확도 사이의 균형 최적화. 작은 모델(EfficientNet-B0)부터 큰 모델(EfficientNet-B7)까지 다양한 버전 존재.VGG→ 단순한 구조(3×3 컨볼루션 반복)로 유명한 고전적인 CNN. 연산량이 많지만 이해·응용이 쉬움.MobileNet→ 경량 CNN. Depthwise Separable Convolution을 사용해 모바일·임베디드 기기에서 빠른 추론 가능.🔹 객체 탐지(Object Detection) 계열YOLOv3/v4/v5→ "Y..
[ NVIDIA ] Jetson Orin Nano에서 SSD를 마운트(mount)하기 Jetson Orin Nano에서 SSD를 마운트(mount)하는 방법입니다.아래는 일반적인 SATA 또는 NVMe SSD를 연결했을 때의 마운트 과정입니다. SSD의 포맷 및 파일 시스템 상태에 따라 단계가 달라질 수 있으니 참고하세요.[ 준비물 ]Jetson Orin Nano 개발자 키트연결 가능한 SSD (NVMe M.2 또는 USB/SATA 방식 SSD)마운트할 디렉토리 생성 권한1. SSD 연결 및 확인먼저 SSD가 인식되었는지 확인합니다.lsblk출력 예시:NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTmmcblk0 179:0 0 29G 0 disk└─mmcblk0p1 179:1 0 29G 0 part /nvme0n1 ..
[ NVIDIA ] Jetson Orin nano 운영체제 설치하기 Jetson Orin용 Ubuntu OS를 microSD 카드에 설치하려면 NVIDIA SDK Manager를 사용하는 것이 아니라, 일반적으로 Jetson Linux (JetPack) SD Card 이미지를 다운로드하여 직접 플래싱하는 방식으로 설치합니다. SDK Manager는 eMMC 또는 NVMe에 OS를 설치할 때 주로 사용됩니다.하지만 Jetson Orin Nano와 같은 일부 모델은 microSD 부팅을 지원하므로, 아래와 같은 방식으로 진행할 수 있습니다.1. Jetson Orin Nano용 microSD 설치 절차1. 사전 준비물Jetson Orin Nano (또는 SD 카드 부팅을 지원하는 모델)64GB 이상 microSD 카드 (UHS-1 이상 권장)microSD 리더기Ubuntu L..
[ NVIDIA ] 사람의 이동 및 표정, 시선 분석하기 사람의 이동(트래킹)·표정·시선·제스처 분석에 초점을 맞춰, JetPack + Holoscan으로 구성하는 엔드투엔드 파이프라인을 구체적으로 정리해 드릴게요. (대상 기기: Jetson AGX Xavier / Xavier NX 가정)1) 전체 아키텍처 개요입력(카메라/멀티센서) → 전처리 → 탐지(사람/얼굴/손) → 키포인트(포즈·랜드마크) → 파생 추정(시선·표정·제스처) → 멀티객체 추적 + ID 유지 → 이벤트/지표 산출 → 스트리밍/저장/대시보드JetPack 역할: 카메라 드라이버, CUDA/cuDNN, TensorRT 최적화, GStreamer/DeepStream 가속.Holoscan 역할: 멀티 스트림 파이프라인 오케스트레이션, 저지연 스케줄링, 연산 노드(Operator) 간 데이터 이동, ..
[ NVIDIA ] 각도/행동 인식까지 동작하는 예제 코드 따라하기 DeepStream 파이프라인에서 **TensorRT 엔진(TRT Pose)**로 추론 → (Python pad-probe에서) 각도/행동 인식까지 동작하는 구조이며, **C++ 커스텀 파서 스켈레톤(빌드 가능)**도 포함했습니다.폴더 구조trtpose-realtime/├─ README.md├─ models/│ ├─ trt_pose_224_fp16.engine # ← 본인 엔진 파일 복사│ └─ labels.txt # (옵션) 사람 1클래스 등├─ configs/│ ├─ config_infer_trtpose.txt # nvinfer 설정 (output tensor meta on)│ ├─ config_tracker_NvDCF...
[ NVIDIA ] TRT Pose를 이용해서 동작에 따른 각도 계산하고 행동 인식하기 TRT Pose → TensorRT 엔진 → DeepStream(추론+트래킹) → 각도/행동 인식까지 “실시간 스트림”으로 붙이는 방법을 단계별로 정리했습니다. 각 단계에 바로 쓸 수 있는 명령/설정/샘플 코드를 넣었고, 포인트마다 공식 자료 링크를 덧붙였습니다.1) TRT Pose 모델: ONNX → TensorRT 엔진 생성1-1. 모델 준비(Weights & Topology)trt_pose 저장소를 클론하고, COCO keypoints용 topology(JSON)과 PyTorch 가중치를 받습니다. (GitHub)git clone https://github.com/NVIDIA-AI-IOT/trt_posecd trt_pose# (필요시) notebooks/tasks/human_pose/ 의 topol..
[ NVIDIA ] TRT Pose를 이용해서 동작에 따른 각도 계산하기 아래는 TRT Pose → 각도 계산 → 행동 인식까지 한 번에 이어지는, 바로 붙여서 돌리기 쉬운 파이프라인 예제입니다.실전에서는 TRT Pose가 낸 keypoints (x, y, confidence) 배열만 연결하시면 됩니다. 예제는 두 가지 방식(규칙 기반 / 간단 ML 기반)을 모두 포함합니다.1) 전제: TRT Pose 출력 형태TRT Pose 후처리까지 마치면 보통 이런 형태를 얻습니다:keypoints: (T, K, 3) 배열 — T=프레임 수, K=관절 수(예: COCO 17~18개), 마지막 축은 (x, y, conf)skeleton: 관절 연결 쌍 인덱스 목록(여기선 각도 계산용으로 직접 정의)아래 코드는 이미 얻어놓은 keypoints를 입력으로 받아 각도와 행동으로 변환합니다. (..
[ NVIDIA ] TRT Pose를 통해서 포즈 추정하기 포즈 추정(Pose Estimation)은 이미지나 영상에서 사람의 관절 위치를 좌표로 추출하는 컴퓨터 비전 기술입니다.NVIDIA AI든 OpenPose 같은 오픈소스든, 기본 원리는 비슷하고 다음과 같이 진행됩니다.1. 포즈 추정의 기본 개념입력: RGB 이미지 또는 영상 프레임출력: 사람의 관절(Keypoint, Landmark) 위치 (예: 머리, 어깨, 팔꿈치, 손목, 고관절, 무릎, 발목)형식: 보통 (x, y) 좌표 + confidence score(추정 신뢰도)2. 주요 접근 방식(1) Top-Down 방식사람 검출 → 포즈 추정 순서로 진행먼저 Object Detection 모델(예: NVIDIA PeopleNet, YOLO, Faster R-CNN)로 사람 박스(Bounding Box)..

반응형