분류 전체보기206 Controllable Latent Space Augmentation for Digital Pathology MotivationFeature-level augmentation방법은 변환과정을 직접적으로 처리하기 어려움Generative model based augmentation은 메모리랑 시간이 너무 많이듬 Method$\mathcal{E}$: feature extractor$\mathbf{z} \in \mathbb{R}^{d}$: feature embedding$K$ : 총 augmentation transforms의 숫자$T_{K}$: 총 augmentation transform$(T_{k}, \alpha_{k})$: transform과 하이퍼파라미터$\tau$: transform의 순차 적용함수. $\tau(x; (T_{k}, \alpha_{k})^{K}_{k=1})$$\rho$: $\tau$을 적용한것.. 2025. 9. 16. Sigmoid Loss for Language Image Pre-Training Motivation:softmax-based contrastive loss의 단점2번의 정규화:. image축단위로 softmax을 하고, text축단위로 softmax하기때문에, 2번연산함. 수치적으로 불안정 함: softmax의 $e^{z_{i}}$에서 $z_{i}$가 커지면 overflow가되어서 수치적으로 불안정함 (최대값을 빼서 사용하지만 여전히 불안정) 장점Batch size: 16K 미만에서도 잘 동작함. (배치사이즈 커질수록 CLIP이랑은 비슷해지긴 함)배치사이즈 키울 수 있음: symmetric하기 때문에. Methods$x_{i}$: normalized image feature vector$y_{i}$: normalized text vector$t$: temperature scale. .. 2025. 9. 15. ReMix: A General and EfficientFramework for Multiple InstanceLearning Based Whole Slide ImageClassification MICCAI 2022 Motivation메모리 및 연산 비효율성 문제: Bag내의 multiple instance인 점으로 학습속도 느림. 패치수도 달라서 배치연산도 안됨.데이터 다양성부족: 딥러닝은 보통 다양한 샘플에서 비롯되는데, 거의 활용안됨. 라벨을 보존하면서 의미있는 증강필요. 주요가정WSI 내의패치들이 거의 반복적, 유사, 중프로토타입으로 표현이 어느정도 가능할것 방법론Reduce: 프로토타입(대표)패치를 정하는 방법K-means clustering을 진행하여, Centroid을 구함.해당 클러스터에 속한(=맴버십)인 패치의 임베딩의 공분산을 구함하나의 multivariate guassian mixture모델로 고려(N(중심점, 공분산)).Mix: 데이터의 다양성을 위한 특징수준에서의 증강방법.. 2025. 9. 4. RankMe: Assessing the Downstream Performance of Pretrained Self-Supervised Representations by Their Rank ICML 2023 MotivationSSL의 대부분(SimCLR)은 라벨없이 학습하고, 학습이 잘되었는지 아닌지를, 라벨/튜닝(라벨)에 의존했음라벨을 이용해서, Linear probing으로 확인하는 작업을 주로 했고, 라벨없는 경우 확인하기 어려움라벨없이도 표현의 품질을 가늠하고, 튜닝이 필요없는 지표를 제안"임베딩의 유효랭크"가 다운스트림 테스크에 영향랭크(Rank, 계): 서로 독립인 축의 방향 (=SVD의 0이 아닌 특이값의 계수) 방법론용어정리: Representation (인코더의 출력), 프로젝터(MLP). 프로젝터의 출력이 임베딩(embeddings)입력: 데이터셋에서 임베딩 행렬 $Z \in \mathbb{R} ^{N \times K}$ (25,600개도 OK)Z의 특이값 계산 $\si.. 2025. 9. 2. Foundation Models in Computational Pathology: A Review of Challenges, Opportunities, and Impact 2. Foundation Models: Definition, Importance, and Technical Foundations Phase 1: Inductive learning (manual)Phase 2: 자동으로 고수준 특징을 추출하게 됨 (=representation learning)Phase 3: 모델이 동질화 되어가는 중 (why? data scale, SSL, Transformer) => 의학분야에 의미있음. 정의: 규모(scale), 자기지도(SSL), 적응성(Adaptability)을 특징으로함. Table 1.최근 40개의 FM. 초기에는 contrastive learning으로 사용했는데 최근에는 generative architecture로 변화중. 3. Foundation Mode.. 2025. 9. 1. PathGen-1.6M MotivationImage-test dataset의 규모가 너무 적음: 웹사이트, 책에서 수집된데이터로 스케일을 키우는건 한정적.Image quality:압축하는 과정 때문에 이미지 퀄리티가 저하.image-text 의 퀄리티: text에 의미없는 정보 꽤 있음. 데이터 구성큰 구성은 1)Agent Model 준비과 2) 데이터구성 파이프라인으로 나뉨 Agent model생성하기: 3개의 Agent을 생PathGen-CLIP-L: 문제점(병리트고하된 모델이 아님)PathCAP, Quilt-1M, OpenPath 데이터를 합쳐서 700K의 이미지의 데이터셋을 구성CLIP을 이용해서 병리에 특화된 CLIP모델을 생성. Description LLM Agent: 기존문제점(기존 캡셔닝은 너무 단순한 수준) .. 2025. 8. 27. 이전 1 2 3 4 ··· 35 다음