| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- 백준알고리즘
- 그리디
- 프로그래머스
- 자료구조
- 해시를사용한집합과맵
- 수학
- 구현
- 문자열
- C
- 정수론
- 프로그래머스연습문제
- 프로그래머스코딩테스트
- SQL
- C++
- 사칙연산
- 큐
- Image Classification
- 백준
- 프로그래머스sql
- 정렬
- 논문구현
- 논문리뷰
- 다이나믹프로그래밍
- 소수판정
- MySQL
- 브루트포스알고리즘
- 이분탐색
- C언어
- 그리디알고리즘
- 이진탐색
- Today
- Total
목록2025/12/18 (2)
초보 개발자의 이야기, 릿허브
dataloader에서 포인트/GT 정렬이 어떻게 보장되는지baseline에서 forward → shape 정리 → lossevaluation에서 indices로 원본 좌표 복원하는 핵심1) dataloader_baseline.py 핵심: FPS로 points와 heatmap을 같은 인덱스로 정렬아래 블록이 point cloud processing에서 제일 중요한 부분포인트를 FPS로 6890개로 줄였으면, GT heatmap도 반드시 같은 ply_index로 줄여야 “포인트 i의 GT”가 유지# (dataloader_baseline_annotated.py 중 핵심 구간)ply_mesh = trimesh.load(ply_path, process=False)# 원본 포인트 (N_raw, 3)ply_poin..
1. 주어진 point cloud 분류 데이터 (각 샘플은 (N, 3) 포인트, 라벨은 K 클래스)로 다음을 구현하라.전처리: 중심화 (centering) + 스케일 정규화 (scale normalization) + 고정 포인트 수 N으로 샘플링 (random sampling)Custom Dataset 및 DataLoaderkNN 기반 local feature (edge feature) 생성간단한 DGCNN 스타일 분류 모델 구현 loss (cross entropy) 및 학습/검증 루프 구현 후, validation accuracy 출력 # Colab cell 1: imports, seedimport mathimport randomfrom dataclasses import dataclassfrom typ..