본문 바로가기

전체 글187

Stomach histology: H.pylori Gastric pits (위 구멍): 위 점막에 움푹 들어간 구멍을 말함.Lamina propria: connective tissue을 의미. 구조적으로 지지해주는 부분. 면역세포 존재. Gastric gland은 위치에따라서, gastric pit, neck, base로 구분 Parietal cell (벽세포): gland 중간에 위치하는 세포. 염산분비(HCl), 내인성 인자(Intrinsic factor) 분리Chief cell (주세포): gland 하부에 위치. Pepsinogen 분비. Chief cell의 핵은 내강(lumen)의 반대방향으로 위치해있음.Mucous neck cells (점액목세포): gland 상단에 위치. 산성 점액 분비.Enteroendocrine cells (내분비세포.. 2025. 4. 2.
해석: End-to-End Multi-Task Learning with Attention 하나의 네트워크로 이미지의 공동 특징을 추출하고, 각 테스크별로 soft-attention module을 적용한 논문Liu, S., Johns, E., & Davison, A. J. (2019). End-to-end multi-task learning with attention. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 1871-1880). Motivation멀티테스크 학습에서는 공통표현(Shared representation)을 학습하는데 있어서 다음의 2가지 요소가 도전과제:네트워크 아키텍처 문제(어떻게 공통특징을 추출할 것인가?): 공통표현에서 각 테스크별로 공유되는 특징 뿐만아니.. 2025. 3. 17.
Dictionary learning (사전학습) 이란? 적용분야 Dictionary learning의 필요성(motivation)“원자(atom)”라는 기저 벡터들의 희소 조합(sparse combination)으로 표현하는 기법입니다. 이때 ‘원자’들의 집합을 ‘사전(dictionary)’이라고 부릅니다. 다음은 Dictionary Learning의 주요 필요성입니다. 희소성(Sparsity)을 통한 효율적 표현데이터를 사전의 원자 몇 개만으로(= 소수의 계수만 사용) 표현할 수 있게 함으로써,압축, 복원(denoising), 특징 추출(feature extraction) 등에서 유리한 표현이 가능해집니다.즉, “중요한 정보만 남기고 불필요한 잡음이나 중복을 줄일 수 있다”는 것이 큰 장점입니다.기존 기저(예: PCA)보다 유연한 모델PCA(주성분분석)나 SVD 등.. 2025. 3. 12.
Airflow 사용법 및 기본 예제 Airflow을 사용하기 앞서 꼭 알아야하는 주요 개념Apache Airflow는 워크플로우(Workflow) 자동화 및 스케줄링을 위한 오픈소스 플랫폼임. 데이터 파이프라인을 효율적으로 관리하려면 Airflow의 핵심 개념을 이해하는 것이 중요. DAG (Directed Acyclic Graph): Airflow에서 워크플로우를 정의하는 기본 단위로, DAG은 여러 개의 Task로 구성Task & Operator: DAG안에 실행되는 개별작업을 Task라고 함. Task은 airflow의 Operator라는 클레스로 정의Task depdendecies: 테스크의 실행순서를 정의Branching (조건 분기)그외 기타..Xcom (cross-communication): Task간 데이터를 공유하는 기능E.. 2025. 3. 10.
[5분 컷 리뷰] BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation Motivation기존 Vision-Language model의 한계: VLM모델들은 특정 테스크 중심으로 강점을 보이는 경우가 많았음. 예를 들어, 이미지에 대한 캡션 생성(image-to-text generation) 또는 택스트 기반의 이미지 이해(text-conditioned image understanding)에 따로따로 최적화 되어있는 경우가 많음. 즉, 하나의 모델이 이해와 생성을 동시에 수행하는 프레임워크가 필요함데이터 관점의 한계: 최신 VLP(Vision-Language Pretraining)은 웹크롤링한 이미지-텍스트를 이용하지만, 노이즈가 많고, 의미적 일치(alignment)가 떨어짐. 따라서 웹 데이터를 효과적으로 정제하는 방법도 필요함 Method: 1)인코더와 디코더의 기능을.. 2025. 3. 4.
Ordinal crossentropy: IMPROVING DEEP REGRESSION WITH ORDINAL EN-TROPY Motivation컴퓨터비전에서 회귀문제를 분류문제로 변환해서 풀면 성능이 더 좋은 경우가 많음(예, depth estimation)회귀모델의 경우 entropy가 낮은 특징 공간을 학습하는게 문제. 분류의 경우 CE을 주로 사용하는데, CE값이 큰 높은 엔트로피를 학습하게끔 유도됨.하지만, 회귀문제는 MSE을 사용하면서 특징공간이 덜 퍼져있음(low-entropy)아래의 그림 (Figure1)을 보더라도, 특징벡터가 좁게모여있고, [0, 6]사이의 값이 연속적으로 이어지는 순차적인 구조가 이어지져 낮은 엔트로피를 보이는 반면, classification은 많이 퍼져있고 무질서해보이는 높은 포현력(=큰 엔트로피를 보임)  Methodtotal loss: $L_{total} = L_{m} + \lambda.. 2025. 3. 4.