171 254

Cited 0 times in

Fully Convolutional DenseNet(FC-DenseNet) 기반 조건부 생성적 적대 신경망을 이용한 희소 뷰 CT 영상 재구성

DC Field Value Language
dc.contributor.author박인경-
dc.date.accessioned2022-08-23T01:51:20Z-
dc.date.available2022-08-23T01:51:20Z-
dc.date.issued2022-02-
dc.identifier.urihttps://ir.ymlib.yonsei.ac.kr/handle/22282913/189699-
dc.description.abstract희소 뷰 CT 는 프로잭션 뷰가 일반적인 CT 보다 적기 때문에 환자에게 조사되는 방사선량을 감소시킨다는 이점이 있다. 기존의 filtered backprojection(FBP) 알고리즘은 희소 뷰 CT 영상 재구성에 필요한 프로잭션 정보가 충분하지 않기 때문에 한계점을 지니고 있다. Iterative reconstruction 기법은 이러한 단점을 보완해줄 수 있지만, 프로잭션 뷰의 수를 크게 줄이는 것은 대부분 비효율적으로 많은 시간 소요가 존재하고 영상을 재구성하는데 어려움이 있다. 하지만 딥러닝 기반의 희소 뷰 CT 영상 재구성을 하게 된다면 앞서 이야기한 단점들을 해결할 수 있다. 지금까지 여러 선행연구들이 존재하지만 본 연구에서는 fully convolutional DenseNet(FC-DenseNet)을 conditional generative adversarial network(cGAN)의 backbone 네트워크 구조로 활용하여 희소 뷰 CT 영상 재구성을 제안한다. 딥러닝 네트워크의 입력 및 출력 데이터는 45, 60, 90, 120 뷰의 CT 영상과 원본 CT 영상으로 구성되어 있다. 환자 데이터는 두경부 CT 영상을 촬영한 27 명의 데이터를 사용하였고 이 중 18 명의 환자 데이터는 딥러닝 네트워크 훈련에 사용되었고 나머지 9 명의 환자 데이터는 훈련된 딥러닝 네트워크의 확인 및 검증 단계에 사용되었다. 본 논문이 제시한 방법에 L1 손실함수와 L2 손실함수를 사용하여 결과를 얻었고 훈련된 딥러닝 네트워크의 영상 재구성 정확도를 평가하기 위하여 Mean Squared Error(MSE), Peak Signal to Noise Ratio(PSNR), Structural Similarity Index(SSIM) 이 사용되었다. L1 손실함수를 이용한 모델의 가장 좋은 점수는 MSE, PSNR, SSIM 순으로 5.34, 39.87, 0.95 이다. L2 손실함수를 이용한 모델의 가장 좋은 점수는 5.89, 39.61, 0.94 이다. 본 논문이 제안한 딥러닝 네트워크 모델은 희소 뷰 CT 영상 재구성을 위해 cGAN 의 네트워크 구조를 활용하였고 이를 통해 예측된 결과는 기존의 영상 재구성 기법들에 비해 더 정확한 재구성 영상을 얻을 수 있다는 것을 확인하였다. Sparse-view CT benefits from reduction in dose of radiation to patient with fewer projection views than general. Conventional filtered-back projection (FBP) algorithm is limited due to the insufficient projection information required to sparse-view CT reconstruction. The iterative reconstruction complement the disadvantage, while it is mostly time-inefficient and challenging to dramatically reduce the number of projection views. Deep-learning-based sparse-view reconstruction could address the drawbacks. Though various trials made thus far, this work proposes a reconstruction with conditional Generative Adversarial Network (cGAN) based model that utilizes FC-DenseNet as a backbone network architecture. The input and output of the network were set to be sparse-view CT (45, 60, 90, 120 views), and ground-truth CT (720-view). Patient cohort consisted of 27 scans of head-and-neck patients: 18, 9, and 9 scans used for training, validating, and testing the proposed network. We trained GAN using FC-DenseNet and used L1 loss and L2 loss to obtain training results. The metrics for reconstruction accuracy of the trained network employed Mean Squared Error (MSE), Peak Signal to Noise Ratio (PSNR), and Structural Similarity Index (SSIM). The generated image for our proposed model was assessed by MSE, PSNR, and SSIM. The best results of our model with L1 loss are 5.34, 39.87, and 0.95. The best result of our model with L2 loss are 5.89, 39.61, and 0.94. Our proposed network adopted GAN network architecture for sparse-view CT image reconstruction. It demonstrated that the trained network could achieve much more accurate reconstructed image than conventional FBP.-
dc.description.statementOfResponsibilityopen-
dc.publisherGraduate School, Yonsei University-
dc.rightsCC BY-NC-ND 2.0 KR-
dc.titleFully Convolutional DenseNet(FC-DenseNet) 기반 조건부 생성적 적대 신경망을 이용한 희소 뷰 CT 영상 재구성-
dc.title.alternativeSparse-view CT reconstruction via Conditional Generative Adversarial Network (cGAN) Using Fully Convolutional DenseNet (FC-DenseNet)-
dc.typeThesis-
dc.contributor.collegeCollege of Medicine (의과대학)-
dc.contributor.departmentOthers (기타)-
dc.description.degree석사-
dc.contributor.alternativeNamePark, Inkyung-
dc.type.localThesis-
Appears in Collections:
1. College of Medicine (의과대학) > Others (기타) > 2. Thesis

qrcode

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.