Cited 0 times in
Hyper-alignment of inter-individual brain networks using deep neural network : predicting task-related brain networks of individuals based on public neurocinematic fMRI data
DC Field | Value | Language |
---|---|---|
dc.contributor.author | 장창원 | - |
dc.date.accessioned | 2018-06-28T07:17:16Z | - |
dc.date.available | 2018-06-28T07:17:16Z | - |
dc.date.issued | 2018 | - |
dc.identifier.uri | https://ir.ymlib.yonsei.ac.kr/handle/22282913/160074 | - |
dc.description | Department of Medical Science | - |
dc.description.abstract | 특정한 기능을 수행하고 있는 뇌의 활성화 패턴 및 연결성 패턴을 확인하기 위한 전통적인 방법은 피험자가 특정 기능을 불러 일으키는 과제를 수행하고, 이때 fMRI 와 같은 뇌기능 촬영 장비를 이용해 과제를 수행중인 뇌 영상을 획득하는 것이다. 그러나 만약 피험자의 육체 또는 인지기능에 문제가 있어 과제를 수행 할 수 없거나, 시공간 적인 제약으로 fMRI 촬영을 하지 못한다면, 피험자의 뇌기능능상태를 파악 할 수 있을까? 즉, 피험자에게 자극을 주지 않고, 자극에 해당하는 뇌 활성화 정도를 파악 할 수 있는 방법은 무엇일까? 모든 사람의 뇌는 비슷하게 동작한다는 가정을 가지고, 피험자의 뇌기능을 파악하기 위해 다른 사람이 해당 기능을 수행할 때 뇌기능을 촬영하여 이를 목적했던 피험자에게 적용하는 것은 좋은 아이디어 일 수 있다. 그러나, 여러 사람이 동일한 과제를 수행 하더라도, 개인에게 내재 되어있는 고유의 개인성 때문에 서로의 뇌 반응은 다른 형태로 나타난다. 따라서 본 연구에서는 뇌기능 활성화 또는 연결성에 기반한 사람과 사람간 뇌기능 매핑 함수를 구하여 특정 피험자의 뇌기능을 추론하는 새로운 방법을 제시한다. 복잡한 뇌 활성화 또는 연결성 지도를 적절히 압축하기 위해 딥러닝 방법의 일종인 Stacked auto-encoder 을 이용해 활성 또는 연결성 패턴을 압축하였고, 또한 딥러닝을 이용해 사람-사람 매핑 함수를 도출 하였다. 영화 데이터로 학습된 딥러닝 레이어들은 학습훈련(training)에 사용되지 않은 영화 장면들을 보는 동안 발생하는 뇌기능을 예측하였고, 영화 뿐만이 아니라, 5가지의 인지과제를 수행하는 동안의 뇌기능을 적절히 예측하였다. | - |
dc.description.statementOfResponsibility | open | - |
dc.publisher | Graduate School, Yonsei University | - |
dc.rights | CC BY-NC-ND 2.0 KR | - |
dc.rights | https://creativecommons.org/licenses/by-nc-nd/2.0/kr/ | - |
dc.title | Hyper-alignment of inter-individual brain networks using deep neural network : predicting task-related brain networks of individuals based on public neurocinematic fMRI data | - |
dc.title.alternative | 딥 러닝을 이용한 개인 뇌기능 신경 연결망의 하이퍼 정합 뉴로시네마틱스 기반 개인 뇌기능 신경연결망 예측 연구 | - |
dc.type | Thesis | - |
dc.description.degree | 박사 | - |
dc.contributor.alternativeName | Jung, Chang Won | - |
dc.type.local | Dissertation | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.