본문 바로가기

Deep learning33

Stable Diffusin 논문 리뷰 High-Resolution Image Synthesis with Latent Diffusion Modelshttps://arxiv.org/pdf/2112.10752 Abstract오토인코더의 잠재 공간(latent space)내에서 확산 모델 훈련하여 연산량 감소아키텍처에 어텐션 레이어 도입하여 텍스트/바운딩 박스 같은 조건 반영 가능1. Introduction 자기회귀트랜스포모 모델 : 연상량 큼GAN : 다중 분포로 확장이 어려움확산모델 : 위 단점없음확산 모델의 장점과 단점(연산량)다음 단계로 개선(두번의 압축(지각적 압축, 생성모델의 의미적 압축(조건부 클래스, 바운딩박스 등))2. Related Work기존 생성 모델(GAN, VAE, ARM)의 한계를 극복하기 위해, 잠재 이미지 공간(lat.. 2025. 2. 15.
CLIP(Contrastive Language-Image Pre-training) 논문 리뷰 논문 : https://arxiv.org/pdf/2103.00020 (Learning Transferable Visual Models From Natural Language Supervision) Abstract기존 모델은, 학습에 사용된 레이블만 분류 가능하며 새로운 TASK에는 fine tuning 등 새로운 학습이 필요함.본 모델은, 인터넷에서 수집한 이미지와 캡션을 매칭하는 방식으로, 추가 학습 없이 새로운 TASK 수행/확장이 가능함. 1. Introduction and Motivating Work자연어에서는 원시 텍스트로부터의 직접 학습을 통해 발전함.웹을 통해 얻은 다량의 데이터를 학습한 모델이 라벨링 된 데이터(고품질)를 학습한 모델을 능가하였다.(여러 TASK수행가능).그러나 이미지는 여.. 2025. 2. 9.
5-2.Feature selection using Entropy / Mutual information 본차시에서도 피처셀렉션에 대해 알아보자. feature selection할때 정보이론 분야에서 연구가 많이 되어온 이론을 이용할 수 있다. 엔트로피라는 개념이 있다. 벡터간의 관계를 생각해본다고 가정하면, Normal, cancel 레이블이 들어간 벡터v1, 피처들의 값이 들어간 벡터 v2, 또다른 벡터 v3 그러면 v1과 v2의 연관성, v1과 v3의 연관성을 계산해볼 수 있다. Normal인경우 v2은 작은값이 나오고 있다. v3는 일괄적으로 작은 값이 나오고 있다. v1과 v2의 연관성이 높다고 생각할 수 있다. 이렇게 연관성이 높은 피처들을 추출할 수 있다면, 오버피팅 문제들을 완화시킬수 있다. 이렇게 분포간의 유사도를 계산하기 위한 방법을 생각해보자. 먼저 정보 양에 대한 식이다. 어떤 사건이 .. 2020. 12. 22.
5-1. Feature selection using L1 regularization 난 주간 여러 분류모델과, 성능향상을 위한 방법을 알아보았다. 의료영상보고 암 여부를 맞추는것만큼 중요한 것이, 어떤 이유로 판정을 내렸는지 이유를 설명하는 것. 본 주차에서는 여러 특징들 중, 분류하는데 중요한 역할을 하는 특징을 선택하거나, 결정에 중요한 역할을 한 부위를 보여줄수 있는 기법들에 대해 살펴볼것. 의료영상 분류를 수행할때, 결과가 나온 이유를 알려주는 것이 중요하다. 특정 질환에 대해 특정 feature가 일관적으로 추출되면, 그 feature가 분류에 꽤 중요한 영향을 미친다고 생각할 수 있다. 질환이 있는 환자에게 나타나는 일반적인 패턴이 있다면, 그 패턴을 바이오마커로 활용할 수 있다. 본 주차에서는 feature selection 또는 feature extraction, fatt.. 2020. 12. 7.
4-7. Evaluation of classification model (Multi-label) 본 차시에서는 멀티레이블일때 메저방법 살펴봄 아래 매트릭스는 컨퓨전매트릭스. 레이블이 4개 있다. 프레딕션도 4가지 할 수 있다. 의료분석분류문제에서 grading을 하는 다양한 문제들이 있다. 즉, 상태가 좋은 경우, 상태가 약간 않좋아진 경우, 꽤 안좋아진 경우, 아주 안좋아진 경우 이런 식으로 등급을 나누는 문제에 confusion matrix만들어 볼 수 있다. 컨퓨전 매트릭스로부터 저번 차시에서 배웠던 accuracy, F1-score 구할 수 있다. A인데 A로 프레딕션한 부분은 맞는 부분. (진한파란색 대각선 부분은 맞다고 판단된 부분이다.) 그 외는 틀린 부분들이다. accuracy 생각해보면 accuracy는 (맞는 개수 / 전체 데이터) F1-score도 프리시전과 리콜을 구하면 구할 .. 2020. 11. 11.
4-6. Evaluation of classification model 분류모델을 만들고 나서 평가를 해야한다. 평가를 하는 여러 방법에 대해 알아보자. 위의 그림은 노란색 : real positive 파란색 : real negative 이런 경우 classifier를 학습할 수 있다. 검은색 선을 클래시파이어로 보겠다. 클래시파이어를 보통 학습하면, 로지스틱 리그레션이나 뉴럴네트워크 등으로 학습하면 predictiton값이 나오게되고 0~1사이로 나온다.(바이너리 클래시피케이션인 경우) 이 값이 0.5보다 크면 postive 0.5보다 작으면 negative라고 말한다. 이 디시전 바운더리 근처에서는 확률값이 0.5에 가깝게 나올 것이다. 끝부분은 거의 확실하게 파지티브라고 프레딕션 할 것 이다. 왼쪽으로 갈수록 0이라고 확실하게 네거티브로 프레딕션 할 것이다. 우리의 바.. 2020. 11. 5.