전체 글210 Docker: 파일 복사 및 볼륨 마운 요약 볼륨 마운트은 도커가 관리하는 시스템내 영역을 정의/생성해서, 해당 영역을 다른 컨테이너들이 공유할수 있도록 마운트하는 것이며, 이와 다르게 바인드 마운트은 도커가 관리하지 않는 호스트의 파일시스템에 다른 컨테이너들이 공유할 수 있도록 마운트하는 것이다. 바인드 마운트는 일반적인 리눅스의 디스크 마운트를 다른 서버에서도 쓸 수 있도록 1:N으로 마운트하는 것과 동일하다. 파일 복사 컨테이너와의 호스트 간의 파일의 복사는 방향이 중요하다. 도커에서는 컨테이너 -> 호스트, 호스트->컨테이너간의 양방향으로 파일을 복사가 가능하다 (이 때의 호스트는 "도커 엔진을 실행중인 PC을 의미한다). // 호스트 -> 컨테이너 $ docker cp 호스트경로 컨테이너명:컨테이너_내부경로 // 컨테이너 -> 호스트.. 2022. 11. 1. 오토마우스: 간호사, 의사 보수교육 사이버연수 자동클릭 오토마우스 보건의료인이라면 의무적으로 듣는 보수교육이 있습니다. 이 보수교육을 주로 온라인으로 듣는데요. 온라인으로 듣는 보수교육으로부터 해방시켜줄 오토마우스를 소개합니다. 오토 마우스 다운로드 사용법1. 첨부파일에 걸어둔 auto_mouse.exe을 다운로드 받습니다. 2. 자동 클릭할 위치에 커서를 올려두고, 키보드에서 "Enter"을 누릅니다. 그러면, 커서의 현 위치가 프로그램에 등록됩니다.3. 몇초마다 클릭할 것인지 세팅합니다. 보통 10초 또는 5초정도 맞춰넣고, 적용을 누릅니다. 4. 보수교육 창(브라우저)를 띄워놓고 "자동 클릭"버튼을 눌러, 자동으로 클릭되도록합니다.5. 중지를 시키려면 "멈춤"버튼을 누르고, "간격" 만큼 기다립니다. 2개의 창을 동시에 2개를 클릭하는법오토마우스 프로그.. 2022. 10. 29. [5분 컷 이해] Swin transformer 쉬운 이해와 설명 요약 Swin Transformer은 ViT(Vision Transformer)와 유사하게 이미지를 패치로 나누어, 각 패치를 토큰처럼 취급하여Transfomer에 전달하는 모델이다. ViT와의 차이점은 ViT은 패치를 레이어를 통과시키면서, 고정크기로만 연산하는 것에 반해, Swin Transformer은 레이어를 지나면서 각 패치들을 합쳐서, 패치의 크기를 크게 만들고, Self-attention의 범위를 확장시키는데 그 차이가 있다(Figure 1). 추가적인 주요 특징으로는 윈도우 내 영역내 여러 패치가 존재할 때, Attention을 줄 영역을 윈도우 내로만 주는 것이 아니라, 이전 레이어의 Window영역을 가로지를 수 있게 다음 레이어에서 Attention할 영역의 Window을 매번 달리하.. 2022. 10. 27. [5분 컷 이해] Latent class analysis (잠재계층분석) 쉬운 이해 요약 LCA(Latent class analysis)은 클러스터링 분석과 유사하게 어느 집단에서 하위그룹이 있는지 알아보는 통계적 방법론이다. 이 하위그룹을 LCA에서는 latent group(=subgroup, 또는 class)라고 한다. 언제사용하나? 내가 분석하고자하는 군을 더 나누고자할 때, LCA은 k-means clustering과 유사하게 연구대상자(cases)을 더 하위 그룹으로 쪼개어 분석하고자할 때, 시행하는 분석방법이다.[1] 모형(LCA model)의 품질평가. 잠재계층의 수를 어떻게 결정하는가? LCA의 모형이 얼마나 데이터셋을 잘 평가하는지는 the likelihood-ratio statistic (G2), Akaike information criterion (AIC), Baye.. 2022. 10. 18. [5분 컷 이해] ViT(Vision Transfomer)의 이해 요약 ViT(Vision Transofmer)은 자연어처리(NLP)분야에서는 성공적인 성능을 보이는 트랜스포머(Transfomer)을 컴퓨터 비전까지 적용하기에는 제한이 있어왔는데, 이를 시도한 사례이다. 트랜스포머에서 각 토큰을 임베딩하여 샐프 어텐션(Self-attention)하는 것과 같이, 각 토큰을 이미지로 생각하여 트랜스포머의 인코딩에 전달하는 것이 이 모델의 골자이다. 모델 아키텍처 설명 본문에서는 별 다른 수정없이(with the fewest posiible modification) NLP에 쓰이던 트랜스포머를 영상처리에도 쓸 수 있다고 소개한다. 그림은 아래와 같다. 큰 순서는 다음과 같다. 1) 이미지를 잘게 자른 패치(Patch)로 N개의 패치를 만든다. 2) 패치를 Flatten하게.. 2022. 10. 12. [5분 컷 이해] Morphological transformation (형태변형) 설명 요약 Morphological transformation (형태변형)은 이미지의 형태를 변형하는 작업들 중 하나를 말한다. 이미지의 형태를 변형하는 하는 방법은 여러가지가 있는데, 주로 "입력 이미지"와 "구조적 원소(=커널이미지)"을 이용한 경우를 말한다. 그리고 형태변형은 주로 이진화 이미지(Binary image, 흑백이미지으로 0(흑), 1(백)으로만 이뤄져있는 이미지)를 연산하는 것을 의미한다[1]*. 주로 Erosion, Dilation이 주로 연산이며 Open, closing은 이것들의 변형들이다 . *주로라는 것은 이진화 이미지가 아닌 경우도 쓸 수 있다(예, grayscale) 주로 아래와 같은 연산들이 대표적으로 쓰인다. 아래의 글을 봐도 잘 이해가 안되는데, 예시와 함께 보는 것을 권.. 2022. 9. 18. 이전 1 ··· 18 19 20 21 22 23 24 ··· 35 다음