菁英科研項(xiàng)目:人工智能與數(shù)據(jù)科學(xué)專題:基于LSTM等序列模型、GAN等生成模型的深度學(xué)習(xí)算法綜合研究與應(yīng)用【大三及以上組】
2023-01-03 16:11:02 來(lái)源:中國(guó)教育在線
導(dǎo)師學(xué)校介紹
麻省理工學(xué)院(MIT)創(chuàng)立于1861年,是世界著名私立研究型大學(xué),在計(jì)算機(jī)科學(xué)方向享有盛譽(yù),在2020年U.S.News世界大學(xué)排名綜排位列第二、計(jì)算機(jī)工程CE專排蟬聯(lián)首位。學(xué)校孕育了90位諾貝爾獎(jiǎng)得主、59位美國(guó)國(guó)家科學(xué)獎(jiǎng)?wù)芦@得者,以及75位麥克阿瑟獎(jiǎng)獲得者。
導(dǎo)師詳細(xì)介紹
導(dǎo)師昵稱
Mark
導(dǎo)師級(jí)別
終身教授
導(dǎo)師學(xué)校
麻省理工學(xué)院(MIT)
Mark導(dǎo)師現(xiàn)任麻省理工學(xué)院(MIT)終身教授,曾獲素有“諾貝爾風(fēng)向標(biāo)”美譽(yù)的美國(guó)斯隆研究獎(jiǎng)、國(guó)際最具聲望的博士后獎(jiǎng)勵(lì)Hubble Fellow。
Mark導(dǎo)師的研究興趣聚焦機(jī)器學(xué)習(xí)、數(shù)據(jù)科學(xué)、人工智能、天體物理,善于利用高性能超級(jí)計(jì)算機(jī)強(qiáng)大的數(shù)據(jù)處理能力進(jìn)行數(shù)值模擬,訓(xùn)練機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型,借助機(jī)器學(xué)習(xí)與數(shù)據(jù)科學(xué)技術(shù)分析模擬數(shù)據(jù)。
Prof.Mark is an Associate Professor at MIT whose research interests span topics such as astrophysics,machine learning,data science and artificial intelligence.He makes extensive use of numerical simulations using state-of-the-art high-performance supercomputers around the world.He also employs machine learning and data science techniques to analyze simulation data.
適合人群
方向:理工
專業(yè):人工智能
適合專業(yè):計(jì)算機(jī)科學(xué),機(jī)器學(xué)習(xí),計(jì)算機(jī)工程,數(shù)據(jù)科學(xué),數(shù)據(jù)分析,深度學(xué)習(xí),人工智能
項(xiàng)目?jī)r(jià)格:33800/19800
項(xiàng)目周期:7周在線小組科研+5周論文指導(dǎo)
是否建議高中生學(xué)習(xí):否
是否建議大學(xué)生學(xué)習(xí):是
語(yǔ)言:英文
難度:中級(jí)/高級(jí)難度
建議具備的基礎(chǔ):本科階段就讀于美國(guó)Top50/英國(guó)Top10/國(guó)內(nèi)世界一流大學(xué)建設(shè)高校A類(原985高校),參考學(xué)校列表:https://shimo.im/docx/VYt6PXphKchpQ6jv/《菁英班學(xué)生院校列表-大學(xué)》;GPA3.5分以上,托福90分以上,雅思6.5以上;數(shù)據(jù)科學(xué)、計(jì)算機(jī)科學(xué)、人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等專業(yè)或希望修讀相關(guān)專業(yè)的學(xué)生;學(xué)生需要具備大學(xué)微積分、線性代數(shù)、概率論與數(shù)理統(tǒng)計(jì)基礎(chǔ)、熟練掌握Python編程并修讀過(guò)數(shù)據(jù)結(jié)構(gòu)相關(guān)課程,并有過(guò)機(jī)器學(xué)習(xí)算法開(kāi)發(fā)經(jīng)驗(yàn)
科研項(xiàng)目產(chǎn)出
7周在線小組科研學(xué)習(xí)+5周論文指導(dǎo)學(xué)習(xí)共125課時(shí)+不限時(shí)論文指導(dǎo)
學(xué)術(shù)報(bào)告
優(yōu)秀學(xué)員獲主導(dǎo)師Reference Letter
EI/CPCI/Scopus/ProQuest/Crossref/EBSCO或同等級(jí)別索引國(guó)際會(huì)議全文投遞與發(fā)表指導(dǎo)(可用于申請(qǐng))
結(jié)業(yè)證書
成績(jī)單
項(xiàng)目介紹
項(xiàng)目中,教授將具體介紹ML和AI中的生成方法。教授將從邏輯回歸模型開(kāi)始,首先介紹神經(jīng)網(wǎng)絡(luò)的概念,隨后深入研究深度學(xué)習(xí)模型的訓(xùn)練和測(cè)試方法。然后我們將介紹卷積神經(jīng)網(wǎng)絡(luò)并討論包括自動(dòng)編碼器和生成對(duì)抗網(wǎng)絡(luò)內(nèi)的生成方法。最后,我們將討論順序建??蚣芗捌湓谧匀徽Z(yǔ)言處理和強(qiáng)化學(xué)習(xí)中的應(yīng)用。學(xué)生將在項(xiàng)目結(jié)束時(shí),自選開(kāi)發(fā)框架,使用Python語(yǔ)言開(kāi)發(fā)深度學(xué)習(xí)應(yīng)用,提交項(xiàng)目報(bào)告,進(jìn)行成果展示。The course will give a specific introduction to the generative methods in ML and AI.We will first introduce the concept of Neural Networks,starting from the well-known logistic regression model.Then we will dive deeply into the techniques of training and benchmarking the deep learning models.Then we will introduce the convolutional neural networks.Then we will spend some time discussing the generative methods including autoencoders and generative adversarial networks.Finally,we will discuss the sequential modeling frameworks and its application to natural language processing as well as reinforcement learning.We will cover the motivation,the theory,and the implementation of Deep Learning in the course.
項(xiàng)目背景
深度學(xué)習(xí)使用分層算法模型分析數(shù)據(jù),是機(jī)器學(xué)習(xí)的重要研究領(lǐng)域;運(yùn)用統(tǒng)計(jì)與預(yù)測(cè)建模收集、分析、解讀海量信息,是數(shù)據(jù)科學(xué)的核心組成部分;模擬人腦神經(jīng)網(wǎng)絡(luò)處理數(shù)據(jù),設(shè)計(jì)模型,訓(xùn)練模型,做出決策,是人工智能的一大分支。深度學(xué)習(xí)技術(shù)通常用于研發(fā)圖像識(shí)別工具、自然語(yǔ)言處理和語(yǔ)音識(shí)別軟件,完善自動(dòng)駕駛、語(yǔ)言翻譯服務(wù);在零售、醫(yī)療、汽車、農(nóng)業(yè)、安全、制造業(yè)有著廣泛應(yīng)用。隨著數(shù)字化趨勢(shì)的興起,全球深度學(xué)習(xí)市場(chǎng)增長(zhǎng)強(qiáng)勁,預(yù)計(jì)在2020-2025年復(fù)合年增長(zhǎng)率將達(dá)到30%左右。機(jī)器學(xué)習(xí)的場(chǎng)景有哪些?如何使用Python語(yǔ)言開(kāi)發(fā)深度學(xué)習(xí)應(yīng)用?項(xiàng)目聚焦Python編程語(yǔ)言和Google開(kāi)源深度學(xué)習(xí)框架TensorFlow在深度學(xué)習(xí)中的應(yīng)用。
項(xiàng)目大綱介紹
神經(jīng)網(wǎng)絡(luò)與計(jì)算數(shù)學(xué)、統(tǒng)計(jì)學(xué)優(yōu)化方法Neural Networks:regularization in Neural Networks,including early stopping,weight decay,dropout,and batch normalization.
卷積神經(jīng)網(wǎng)絡(luò)與應(yīng)用Widely used CNN architectures,including the AlexNet,GoogLeNet,ResNet,and MobileNet.
生成式模型與計(jì)算機(jī)視覺(jué)Generative Methods in Computer Vision
序列模型與自然語(yǔ)言處理Sequential Modeling and Natural Language Processing
強(qiáng)化學(xué)習(xí)Reinforcement Learning
學(xué)術(shù)研討1:教授與各組學(xué)生探討并評(píng)估個(gè)性化研究課題可行性,幫助學(xué)生明晰后續(xù)科研思路Final Project Preparation Session I
學(xué)術(shù)研討2:學(xué)生將在本周課前完成程序設(shè)計(jì)原型(prototype)及偽代碼(Pseudocode),教授將根據(jù)各組進(jìn)度進(jìn)行個(gè)性化指導(dǎo),確保學(xué)生優(yōu)質(zhì)的終期課題產(chǎn)出Final Project Preparation Session II
項(xiàng)目成果展示Final Presentation
論文輔導(dǎo)Project Deliverables Tutoring
>>沒(méi)有教授推薦信,缺少科研經(jīng)驗(yàn)?點(diǎn)擊這里提升背景<<