후.. 쉽지 않다.
데이터 전처리 과정에서는 논리적으로 타당해 보이는 가정과 실험들이
막상 모델 학습을 시켜보면 성능이 더 낮게 나오는 경험을 여러 번 하고 있다.
한두 번 정도는 오케이지만 여러 번 반복되니 힘이 빠진다.
성능은 안 오르고.. 등수는 계속 밀리고.. 시간은 가고..
그렇다고 하루종일 붙잡고 있을 수도 없고..
그럼에도 불구하고 성능이 조금이라도 향상되었을 때의 그 도파민 때문에 계속 하는 것 같다.
하지만 이쯤에서 한번 끊어가야겠다고 느낀다.
비슷한 ML 태스크에서 다른 사람들이 어떤 것들을 하는지 찾아보면서 공부해봐야겠다.
아무튼, 지금까지 한 생각들
1. 데이터를 진정성 있게, 진심을 다해서 봐야 의미 있는 전처리가 가능한 것 같다. 어느 정도의 직관과 감도 중요하다는 것을 느꼈다.
2. 논리적으로 타당해보여도 성능이 낮아지는 건 왜일까?
3. 다른 사람들은 어떻게 하고 있을지 궁금하다.
4. 이런 문제 푸는 게 스트레스받지만 재밌다. 고통을 즐기는 인간인걸까.
'주저리' 카테고리의 다른 글
| [주저리] 그동안의 행적 (feat. 인턴생활 시작) (0) | 2025.07.13 |
|---|---|
| [주저리] 링크드인 계정을 만들었다. (1) | 2025.02.18 |
| [계획] 1월에 리뷰할 논문 목록 (1) | 2025.01.08 |
| [주저리] 11월 결산과 12월 계획 (4) | 2024.11.30 |
| [주저리] 비문학 확산모델 지문을 풀어봤다 (0) | 2024.11.14 |