본문 바로가기

분류 전체보기210

Class-Balanced Loss Based on Effective Number of Samples https://openaccess.thecvf.com/content_CVPR_2019/papers/Cui_Class-Balanced_Loss_Based_on_Effective_Number_of_Samples_CVPR_2019_paper.pdf 요약Balanced CrossEntropy(=weigthed CE)에서의 가중치가 빈도수의 역수로 들어가면 과하게 들어가서 성능이 안좋음. 유효수를 이용하여 좀 더 이론적으로 타당하고 부드러운(re-smooth된) re-weight 을 하자\Motivation 현실 세계의 데이터들은 대부분 클래스 분포가 균형을 이루지 않고, 몇 개 클래스에 많은 샘플이 몰리고 나머지 클래스는 적은 샘플을 가진 long-tailed 분포를 갖게이런 분포 하에서 학습된 모델은 다수 클.. 2025. 11. 14.
SLURM 단위 (Job, Task) 이해 JOB: sbatch 명령어로 실험 1개의 단위. jobId가 부여되는 하나의 단위임. QoS, Partition 자원같은게 Job단위로 일단 크게 구성됨.Task: Job내에서 SLURM이 띄우는 프로세스의 단위. 개수는 "#SABTACH--ntask=..."으로 결정. 직접 띄우는 OS프로세스임. 즉. "ps -u [사용자명]"으로 띄우는 테스크임. slurm이 관리하는 병렬 프로세스 수임. 즉, slurm이 띄운 프로세스가 자식프로세스로 여러개 병렬로 돌리는 것은 해당되지 않음. 아래의 경우는 테스크가 Job 하나에 Task가 한 개인 상태#SBATCH --nodes=1#SBATCH --ntasks=1 # SLURM task는 1개만#SBATCH --gres=gpu:2 .. 2025. 11. 13.
유전자 및 CD(Cluster of Differentiation) 정리 주요 유전자/단백질 정리BAP1(BRCA1-Associated Protein 1): 단백질에 붙은 ‘없애’ 표시(ubiquitin)를 떼줘서 단백질을 오래 살게 하거나, 유전자 발현 조절에 관여하는 종양억제(tumor suppressor) 계열 기능. (이 논문에서는 Figure4에서 BAP1이 없어질수록, 종피종일수록 종양세포 옆에 CD8-T cell이 많았다.) Cluster of Differentiation 정리필요 이유: 면역세포 표면에 붙어 있는 단백질을 표기하는 국제 표준 이름. 각 T세포마다 표면에 붙은 단백질이 서로 달라서, 구분하여 명명하는게 필요했기 때문.확인하는 방법:IHC: 일반적인 방법에 해당. FFPE블록에서 슬라이드을 제작하고, IHC 항체를 이용해서 확인함.Flow cytom.. 2025. 11. 10.
부동산 트렌드 2026년에 대한 서평 및 요약 거시지표는 관세효과 약화에도 인플레가 잔존하고, 실질금리 여건이 실물자산 선호를 지지하는 국면임을 보여줌.한국은행은 성장 둔화와 부동산 시장안정을 저울질하며 조건부 추가 인하 가능성을 시사.서울 주택시장은 원가상승과 착공 둔화로 공급절벽 리스크가 커지는 가운데 전세가격이 수급 불균형을 반영해 강세를 이어감. 거시경제를 보면 상승흐름으로 예견돼관세 강화로 인한 비용 전가와 공급망 혼선이 2024~상반기 2025 물가를 밀어올렸으나, 하반기 들어 관세효과 약화·선반영으로 압력이 완화되는 국면임을 국제기구가 지적함 (다만 전 세계는 여전히 무역정책 불확실성과 일부 국가의 관세 인상 여파로 물가·성장 전망에 혼조가 남아 있음.)한국은 물가 둔화와 성장 둔화가 겹치며 한국은행이 2025년 2월과 5월에 기준금리.. 2025. 10. 8.
Controllable Latent Space Augmentation for Digital Pathology MotivationFeature-level augmentation방법은 변환과정을 직접적으로 처리하기 어려움Generative model based augmentation은 메모리랑 시간이 너무 많이듬 Method$\mathcal{E}$: feature extractor$\mathbf{z} \in \mathbb{R}^{d}$: feature embedding$K$ : 총 augmentation transforms의 숫자$T_{K}$: 총 augmentation transform$(T_{k}, \alpha_{k})$: transform과 하이퍼파라미터$\tau$: transform의 순차 적용함수. $\tau(x; (T_{k}, \alpha_{k})^{K}_{k=1})$$\rho$: $\tau$을 적용한것.. 2025. 9. 16.
Sigmoid Loss for Language Image Pre-Training Motivation:softmax-based contrastive loss의 단점2번의 정규화:. image축단위로 softmax을 하고, text축단위로 softmax하기때문에, 2번연산함. 수치적으로 불안정 함: softmax의 $e^{z_{i}}$에서 $z_{i}$가 커지면 overflow가되어서 수치적으로 불안정함 (최대값을 빼서 사용하지만 여전히 불안정) 장점Batch size: 16K 미만에서도 잘 동작함. (배치사이즈 커질수록 CLIP이랑은 비슷해지긴 함)배치사이즈 키울 수 있음: symmetric하기 때문에. Methods$x_{i}$: normalized image feature vector$y_{i}$: normalized text vector$t$: temperature scale. .. 2025. 9. 15.