분류 전체보기198 Github SSH Key을 이용한 인증방법 GitHub에서 git pull을 할 때 아이디와 비밀번호를 묻지 않게 하려면, 다음의 방법들을 사용할 수 있습니다:1. SSH 키를 사용한 인증 설정: SSH 키를 생성합니다:이 명령어를 실행하면 SSH 키 쌍이 생성됩니다. 기본 경로를 사용하면 ~/.ssh/id_rsa와 ~/.ssh/id_rsa.pub에 각각 개인 키와 공개 키가 저장됩니다.$ ssh-keygen -t rsa -b 4096 -C "your_email@example.com" # github 이메일을 쓰시면됩니다. 2.SSH 에이전트에 키를 추가합니다:$ eval "$(ssh-agent -s)"$ ssh-add ~/.ssh/id_rsa 3. github 계정에 SSH 공개키를 추가합니다: 생성된 공개 키(~/.ssh/id_rsa.pub.. 2024. 8. 23. 극좌표계(Polar coordinates) 및 픽셀유동화 극좌표계(Polar coordinates)는 평면 위의 점을 나타내는 또 다른 방법으로, 직교좌표계(Cartesian coordinates) 대신 사용됩니다. 직교좌표계에서는 xxx와 yyy라는 두 개의 직각 축을 사용해 점의 위치를 나타내지만, 극좌표계에서는 기준점에서의 거리와 기준 방향으로부터의 각도를 사용합니다. 극좌표계 개요기준점 (원점): 극좌표계에서 기준점은 거리를 측정하는 기준이 되는 점입니다. 이 점은 보통 O로 표시되며, 직교좌표계에서의 원점 (0,0)(0, 0)(0,0)에 해당합니다.거리 (r): 극좌표계의 첫 번째 요소인 r은 기준점 O에서 평면상의 점 P(x,y)까지의 거리를 나타냅니다. r은 항상 0 이상의 값을 가지며, 보통 음수는 허용되지 않습니다. 이 때, 점 P의 위치는 직.. 2024. 8. 20. [5분 컷 리뷰] MiT(Mixed Vision Transformer). SegFormer: Simple and Efficient Design for SemanticSegmentation with Transformers Motivation최근 연구들은 언어모델을 차용하여 비전문제를 풀려는 아키텍처가 많이 발표되고 있으며, 대표적으로 ViT(Vision Transformer)가 있습니다.(2021년 당시) Vision Transformer을 기반으로한 모델들은 ViT을 인코더 백본으로 특징을 뽑고, CNN을 여러겹 적용하여 decoders로 하여 꽤 좋은 성능을 보여주었습니다.위의 아키텍처는 아래의 2문제가 있어, Segformer가 해결하고자 했던 것 입니다.Single scale low-resolution: 하나의 스케일의 feature만 사용된다는 것입니다. 인코더에서 이미지를 특징화하고, 디코더에서 하나의 입력스케일만 입력받습니다.Computational cost: 이미지가 클수록 계산량이 많다는 것입니다. 특히,.. 2024. 8. 12. Pre-commit 패키지 사용 Pre-commit 패키지?pre-commit은 Git 저장소에서 커밋을 수행하기 전에 코드 품질을 보장하고 코드 스타일을 일관되게 유지할 수 있도록 도와주는 도구입니다. 이 패키지는 Git의 훅(hook) 시스템을 활용하여 커밋 전 다양한 자동화 작업을 실행할 수 있게 해줍니다. 이를 통해 코드의 품질을 유지하고, 협업 시 코드 스타일의 일관성을 보장할 수 있습니다.주요 기능은 아래와 같습니다.자동화된 코드 검사 및 포매팅: 코스 스타일을 검사하는 테스트입니다. 협업시 꽤 유용합니다.다양한 훅(hook): hook은 스크립트나 명령어를 의미합니다. 여러가지 검사방법을 적용해볼 수 있습니다.확장성: `pre-commit-config.yaml`을 변경하여 훅을 추가/제거 할 수 있습니다. Pre-commi.. 2024. 8. 9. [5분 컷 리뷰]Towards Large-Scale Training of Pathology Foundation Models 요약디스크에 저장없이 바이트범위만 획득하게하는 온라인패치는 패치의 배율, 좌표를 다양하게 할 수 있습니다. 온라인패치로 다양한 배율로 학습한 모델은 더 향상된 성능을 보여주었습니다. 그리고, 학습시, ImageNet을 파인튜닝하는게 FM모델을 만드는데 더 도움이 됩니다. 마지막으로, 데이터의 크기는 총 범위의 30% 정도면, 100%사용과 비슷한 성능을 기대할 수 있습니다. 그리고, 이 파이프라인은 eva라는 오픈소스로 공개되어있습니다. Introduction병리에서 자기지도학습알고리즘으로 대규모로 학습하는 사례가 많아짐.어떤 방법으로 학습하고 적용해야, 효과적으로 large scale 모델을 학습할 수 있지 의문이 연구에서는 학습/테스트 파이프라인을 제시 (eva)온라인패치하이퍼 파라미터, 초기화 전략.. 2024. 8. 8. [5분 컷 리뷰] Matthew's correlation coefficient loss 요약DICE loss에서 반영하지 못하는 background의 오분류를 패널티로 반영하기위한 손실함수. Confusion matrix의 요소들을 직접 사용하여 손실함수를 만듬. DICE vs MCC(Mattew's correlation coefficient, MCC)DICE loss을 사용하든, IoU(Jaccard loss)을 사용하든 둘 다 TN(True negative)에 대한 정보가 없습니다. 이 True Negative을 반영하기위해서, confusion matrix에서 각 요소를 아래와 같이 만듭니다. 즉, TP와 TN은 많이 맞추고, FP,FN은 적은 confusion matrix을 만들기를 바라며, 이를 정규화하기위한 분모로 만듭니다. 아래를 보면 각 요소들이 분모에 2번씩 사용됩니다. .. 2024. 7. 25.