AI趨勢周報第97期:AI向下紮根!教育部推出中小學AI教材

iThome 2019/08/17 06:08(29天前)

重點新聞(0809~0815)

教育部     AI學習     中小學  

AI教育向下紮根!教育部發行《和AI做朋友》電子版

配合108學年度新課綱,教育部日前發行《和AI做朋友》電子版教案,預計9月底將販售紙本套書。教育部資訊及科技教育司司長郭伯臣指出,這套教材目的是要協助中小學教師,將AI概念轉化為中小學生易懂的內容,因此也特別編寫教案,也透過學生回饋加以改善。《和AI做朋友》可用於資訊科技相關課程或社團活動補充教材。該教材的編輯成員來自成大、臺科大、臺南大學等大學教授,以及師大附中國中部和南二中教師等。

為協助教師教學,教育部將於9月底提供教師線上培訓課程,並於12月舉辦教師共備工作坊。有興趣的民眾,也可至教育大市集主題資源區下載。

  臺大醫院     腦腫瘤    影像辨識  

30秒揪出腦中炸彈!臺大醫院導入AI輔助電腦刀除腫瘤

臺大醫院宣布導入一套腦腫瘤辨識AI,能在30秒內自動偵測腦腫瘤位置並圈註出來,準確度達90%以上。這款AI可辨識腦轉移瘤、腦膜瘤和聽神經瘤等3種常見的腦瘤,臺大醫院腫瘤醫學部放射腫瘤科主治醫師許峰銘表示,由於腦腫瘤好發於腦部深處,體積小、數量多,傳統開腦手術風險太大,於是多以「電腦刀」放射線手術為主來控制腦瘤。但為了精準定位,還需要醫師在電腦斷層掃描(CT)和核磁共振影像(MRI)上圈註腫瘤,需耗費數十分鐘至數小時,但透過這些資料訓練出來的AI系統,可在30秒內就完成判讀、圈註,醫師只需再檢查或校正AI答案即可,大大縮減神經外科和放射腫瘤科醫師前置作業時間。

臺大醫院也透露,該系統已於7月在臺大醫院電腦刀中心上線,用於治療腦轉移瘤、腦膜瘤和聽神經瘤。

  Nvidia     GPU平臺    BERT-Large  

Nvidia以GPU平臺訓練BERT-Large自然語言模型,創下53分鐘新紀錄

Nvidia近日展示超級運算平臺Nvidia DGX SuperPOD新成果,該平臺刷新全球紀錄,只花53分鐘就完成訓練BERT-Large自然語言模型,此外也以Nvidia DGX SuperPOD來訓練參數多達83億的GPT-2 8B模型。

BERT是Google開發的自然語言處理預先訓練技術,特點在於預先訓練的資料不須經標註,而是任何純文字皆可,例如能直接使用英文版維基百科進行訓練,因而提高準確度,但資料量卻相對龐大。而BERT-Large是目前最大的BERT模型,有3.4億個參數。Nvidia的DGX SuperPOD雖花了53分鐘完成訓練,但這是根據所使用的節點和V100 GPU數量而定,要達到53分鐘的速度,必須仰賴92個DGX-2H 節點與1,472個V100 GPU。有鑑於參數愈多,模型的預測就會愈準確,Nvidia也研究了Google用於翻譯的Transformer機器學習架構,發表了Megatron專案,並將原本只有15億個參數的GPT-2模型擴大到83億個參數,建立了更巨大的GPT-2 8B模型。

  SenseBERT    歧義      AI21  

AI語言理解力Up!以色列AI新創發表SenseBERT模型,更能消歧義

以色列新創AI21日前發表一套新模型SenseBERT,能大幅改善自然語言處理(NLP)模型處理語言歧義(Ambiguity)的表現。對AI模型來說,要辨識句子中同音異字或代名詞並不簡單,比如He is a great bass player who hates eating bass(貝斯與淡水魚)或是The trophy doesn’t fit in the suitcase because it is too big。研究團隊將SenseBERT定位為一套預訓練模型,不只能預測遮罩(Masked)詞,更能預測遮罩詞在給定上下文中的實際意思。為達到這個目標,團隊設計了一個類神經網路,能夠從上下文中預測特定詞彙的真實意思,並利用英語詞彙資料庫WordNet作為標註參考。之後,團隊將這套模型嵌入Google去年發表的NLP模型BERT中。在複雜語言評測任務WiC中,SenseBERT達到了SOTA等級。

NLP    AI ViLBERT     臉書AI研究院 

電腦視覺+語言理解讓NLP更上層樓

由臉書AI研究院、喬治亞理工學院和俄勒岡大學組成的研究團隊發表一套ViLBERT模型,可同時處理視覺影像和自然語言。BERT是Google去年發布的自我監督式自然語言處理預訓練模型,是個有24個Transformer blocks、1024個隱藏層和3.4億個參數的巨型模型,而且在11項NLP評測中創下紀錄。這次,臉書AI研究院等團隊將BERT擴展為聯合的視覺語言模型,藉共同注意力變化層(co-attentional transformer layers)來串連視覺和語言處理。

研究團隊用圖片描述資料集(Conceptual Captions dataset)中310萬組資料來訓練ViLBERT,再將預訓練好的ViBERT模型來執行4個常見的視覺語言任務,包括了VQA、VCR、Grounding Referring Expressions,以及Caption-Based Image Retrieval。完整的ViLBERT模型在這4個任務中,表現達SOTA等級。研究員表示,ViLBERT未來可望應用於細緻的圖像辨識。

  自然語言   效能評測    SuperGLUE  

AI研究人員攜手發表更嚴格的自然語言效能評測平臺SuperGLUE

Facebook AI、DeepMind、紐約大學與華盛頓大學的AI研究人員近日共同發布SuperGLUE平臺,也就是測量AI自然語言處理(NLP)的效能評測平臺。SuperGLUE包含8種不同任務,其中一之是「選擇合理的替代方案」(COPA),也就是一個因果推理任務,系統先得到一個前提,之後必須從兩個可能的選擇中判斷因果。人類在COPA任務的準確性通常可達100%,而BERT則是74%,代表AI模型還有很大的進步空間。

再以最近表現最佳的RoBERTa模型為例,它擊敗了目前所有的NLU系統,也在「多重句子閱讀理解」(MultiRC)任務上超越人類效能,但在SuperGLUE上測試RoBERTa後發現,RoBERTa在許多任務的表現上依然不及人類。此外,研究人員還打造了該領域首個長篇問答資料集與效能評測,要求機器提供複雜且長篇的答案,希望機器能理解更開放的問題並提供更具深度的答案,例如「沒有腦的水母怎麼運作?」

PyTorch 1.2    深度學習    模型編譯 

PyTorch 1.2加入新的模型編譯API

開源深度學習框架PyTorch開發團隊釋出了最新的PyTorch 1.2,這個版本新增了新的模型編譯器TorchScript API,並擴展了開放模型格式ONNX輸出功能。TorchScript是一個編譯器,開發者可使用TorchScript將PyTorch模型序列化以及最佳化後,在正式生產環境提供服務。

PyTorch 1.2更新後,擴充了對TorchScript的支援,除了增加API,助開發者將模型編譯為TorchScript外,還支援更多可用於PyTorch模型的Python子集,包括Python程式語言的結構(Construct)和標準函式庫,像是for迴圈、zip()與enumerate()等基於迭代的結構,還有支援數學和字串函式庫等。於此同時,開發團隊也更新音訊應用類Torchaudio、文字應用類Torchtext和電腦視覺應用類Torchvision三個函式庫,以支援最新的PyTorch核心。

圖片來源/臺大醫院、Jiasen Lu et al

 AI趨勢近期新聞 

1. 國產全球第一套針對中後期漸凍患者研發的智慧溝通系統,能用AI辨識腦波來判斷患者意圖

2. 類比訊號用於AI預測更快也更省電,神盾研發類比運算AI晶片瞄準超高速感測市場

3. 思科宣布將買下語音協作平台Voicea以協助會議紀錄

資料來源:iThome整理,2019年8月

FB留言

即時科技
媒體

降雨:

氣溫: