免费高清特黄a大片,九一h片在线免费看,a免费国产一级特黄aa大,国产精品国产主播在线观看,成人精品一区久久久久,一级特黄aa大片,俄罗斯无遮挡一级毛片

分享

人工智能在教育中應(yīng)用的未來前景——美國教育部的政策和建議

 課程教學(xué)研究 2023-08-19 發(fā)布于浙江

美國教育部致力于支持技術(shù)賦能教學(xué)以創(chuàng)新教育系統(tǒng)。人工智能作為一項快速發(fā)展的基礎(chǔ)技術(shù),受到教育領(lǐng)域廣泛關(guān)注,不斷被嵌入教育技術(shù)系統(tǒng)中。然而,其強大功能背后也伴隨“算法偏見”等新的公平和倫理問題出現(xiàn),人們對人工智能的興趣和擔(dān)憂同步上升。教育界有責(zé)任利用先進(jìn)技術(shù)提升教育質(zhì)量,并防范可能出現(xiàn)的技術(shù)使用風(fēng)險。

為使教師、教育領(lǐng)導(dǎo)者、決策者、研究人員和技術(shù)研發(fā)人員協(xié)力解決人工智能在教育應(yīng)用中出現(xiàn)的各種政策性問題,2023 年 5 月,美國教育部教育技術(shù)辦公室發(fā)布了最新政策報告《人工智能與教學(xué) 的 未 來》(Artificial Intelligence and the Future of Teaching and Learning)。報告闡述了共享知識、提供支持和制定人工智能政策的明確需求。報告指出,人工智能是一種快速發(fā)展的識別模式和自動化行動的基礎(chǔ)能力,為解決教育政策優(yōu)先事項帶來了重要機(jī)遇,必須同時關(guān)注應(yīng)用中的預(yù)期風(fēng)險。
圖片


人工智能在教育界的應(yīng)用引發(fā)社會廣泛關(guān)注和討論

美國教育部在 2021 年一項調(diào)研中發(fā)現(xiàn),研發(fā)人員普遍支持在教育技術(shù)系統(tǒng)中引入人工智能。為征求民眾意見,美國教育部繼而在 2022 年 6 月至 8 月舉行了 4次聽證會,全程共有 700 多名民眾出席,與會者普遍認(rèn)為需要采取行動以應(yīng)對人工智能在教育技術(shù)系統(tǒng)中的擴(kuò)增。

針對人工智能在教育中的應(yīng)用,民眾主要關(guān)注三方面。第一,人工智能可以通過更適合的途徑、模式和更低的成本解決教育當(dāng)下面臨的重點工作。比如,可以利用人工智能技術(shù)為受新冠疫情影響學(xué)業(yè)的學(xué)生提供學(xué)習(xí)資源,為教師提供教學(xué)支持,提高課程資源的可定制性,滿足個性化需求。第二,人工智能可能會引發(fā)系統(tǒng)風(fēng)險,并存在潛在危險。人工智能可以作為基礎(chǔ)技術(shù)應(yīng)用于無形之中,這引發(fā)了人們對透明度和信任的擔(dān)憂。人工智能可能會提供不準(zhǔn)確或缺乏現(xiàn)實基礎(chǔ)的信息,其縮放模式檢測器和自動化特性可能會導(dǎo)致“算法歧視”,造成學(xué)習(xí)機(jī)會的系統(tǒng)性不公平。第三,人工智能的應(yīng)用可能出現(xiàn)的不可預(yù)測的意外情況。人工智能的大規(guī)模自動化教學(xué)決策可能引發(fā)不良后果,比如,如果人工智能根據(jù)學(xué)生能力加快一些學(xué)生的課程進(jìn)度,放慢一些學(xué)生的進(jìn)度,可能會導(dǎo)致學(xué)習(xí)成績差距進(jìn)一步拉大。


人工智能的本質(zhì)和局限性

報告從三個角度討論了人工智能概 念。首 先,從 類 人 推 理(human-like reasoning)角度來看,人工智能是計算機(jī)系統(tǒng)的一種理論和發(fā)展,能夠執(zhí)行通常需要人類智能完成的任務(wù),如視覺感知、語音識別、學(xué)習(xí)、決策和自然語言處理等。[1]基于人工智能的教育應(yīng)用程序能夠與師生交談,共同引導(dǎo)開展課堂活動,能更廣泛地影響學(xué)生和教師行為。其次,從技術(shù)本質(zhì)來看,人工智能是一種基于理論或數(shù)據(jù)模式推斷而獨立完成目標(biāo)的計算方法。不同于傳統(tǒng)教育技術(shù),人工智能模型能夠支持更自然的人機(jī)交互。[2] 人工智能的模式識別能力和自動推薦將影響學(xué)生學(xué)習(xí)和教師教學(xué)決策,比如根據(jù)學(xué)生需求調(diào)整教學(xué)順序,為學(xué)生提供反饋和提示等。最后,從智力增強角度來看,人工智能是一種以人為中心的伙伴關(guān)系模型,這種定義強調(diào)人工智能作為一種輔助工具,以人類的“智能”和“決策制定”為中心,人與人工智能合作以增強認(rèn)知,包括學(xué)習(xí)、決策和新體驗等。[3]

雖然人工智能具備超越傳統(tǒng)技術(shù)的“類人”能力,但也存在一定局限性。首先,人工智能處理信息方式與人類有本質(zhì)差別,人工智能基于算法和程序的邏輯推理,依靠流程和規(guī)則處理信息;人類思考是基于大腦神經(jīng)元之間的神經(jīng)傳遞,神經(jīng)元之間相互作用構(gòu)成復(fù)雜的神經(jīng)反應(yīng)網(wǎng)絡(luò)。應(yīng)該重視這些差異,否則會在制定政策過程中偏離目標(biāo)。其次,人工智能模型開發(fā)過程中提供給算法的數(shù)據(jù)可能存在不良關(guān)聯(lián)、偏見或誤導(dǎo),可能導(dǎo)致算法歧視。最后,人工智能不具備人類廣泛的情境判斷能力。人工智能在檢測模式和自動化決策時通常缺乏應(yīng)用情境的相關(guān)數(shù)據(jù),因此,有時無法根據(jù)情境變化做出適切的決策。

人工智能對教育的影響

報告從學(xué)習(xí)、教學(xué)、評價和研發(fā)四個方面分析了人工智能對教育的影響,并分析了人工智能未來的發(fā)展方向。

(一)人工智能使學(xué)習(xí)更具適應(yīng)性

1. 人工智能提升適應(yīng)性的途徑

適應(yīng)性是技術(shù)改善學(xué)習(xí)的關(guān)鍵方式,通常也被稱之為個性化,個性化意味著給予學(xué)習(xí)者“發(fā)言權(quán)”和“選擇權(quán)”,人工智能可以從五方面提升學(xué)習(xí)適應(yīng)性。第一,從缺乏型到資產(chǎn)型。傳統(tǒng)教育技術(shù)通過查缺補漏的方式為學(xué)生提供指導(dǎo)。如果以學(xué)生的長處為導(dǎo)向,發(fā)現(xiàn)學(xué)生特長和能力,即“資產(chǎn)”,則可以正向輔助學(xué)生學(xué)習(xí)。人工智能以“資產(chǎn)”為導(dǎo)向,更能全面掌握學(xué)生基本情況,從而促進(jìn)教育公平。第二,從個體認(rèn)知到涉及社會及多方面的學(xué)習(xí)。學(xué)習(xí)不僅包括認(rèn)知,也包含社會學(xué)習(xí)能力、自我調(diào)節(jié)能力、推理、解釋和證明能力等其他關(guān)鍵技能。人工智能可以幫助學(xué)生實現(xiàn)多種技能的增強學(xué)習(xí)。第三,從一般學(xué)生擴(kuò)展到特殊學(xué)生。人工智能模型能夠處理多種學(xué)習(xí)路徑和多種交互方式,從而可以為一些特殊學(xué)生,比如神經(jīng)多樣性學(xué)習(xí)者(neurodiverse learners),提供不同的學(xué)習(xí)路徑,采用適合其特征的學(xué)習(xí)方式,使學(xué)生從中受益。第四,從固定任務(wù)到主動開放的創(chuàng)造型任務(wù)。人工智能模型可以幫助學(xué)生完成開放的創(chuàng)造型任務(wù),促進(jìn)學(xué)生創(chuàng)造和創(chuàng)新能力培養(yǎng)。第五,從正確答案到多樣化目標(biāo)。正確答案并非是唯一的學(xué)習(xí)目標(biāo),人工智能模型可以引導(dǎo)學(xué)生熟練進(jìn)行團(tuán)隊協(xié)作和領(lǐng)導(dǎo)團(tuán)隊,嘗試完成多樣化的目標(biāo)。

2. 問題挑戰(zhàn)和應(yīng)對舉措

目前人工智能作為輔助工具已大規(guī)模應(yīng)用于教學(xué)實踐,但也伴隨一些挑戰(zhàn)和問題。教育技術(shù)系統(tǒng)實現(xiàn)學(xué)習(xí)個性化的方式主要是調(diào)整課程難度和順序,但是,個性化不僅僅是調(diào)整課程內(nèi)容,而是多方面統(tǒng)籌的“個性化”。雖然生成式人工智能功能強大,但其模型比人類學(xué)習(xí)愿景范圍更窄,即人工智能所提供的信息基礎(chǔ)無法完全覆蓋人類的求知欲。此外,人類教師具備人工智能無法取代的優(yōu)勢,比如,人類教師可以理解文化響應(yīng)性(culturally responsive)和 維 持 性教 學(xué)(culturally sustaining),能 更好把握每個學(xué)生個性化的“可教時刻”(teachable moment)。

針對以上問題和挑戰(zhàn),在技術(shù)層面,應(yīng)梳理人工智能模型的優(yōu)勢和局限性,關(guān)注與未來學(xué)習(xí)愿景契合的人工智能模型。在決策層面,決策者需要謹(jǐn)慎選擇人工智能模型,使用系統(tǒng)思維,允許人類參與其中,使教育工作者和其他成年人可以有效地進(jìn)行教學(xué)和學(xué)習(xí)。在使用層面,需要讓學(xué)生了解人工智能的優(yōu)勢和風(fēng)險,批判性地審視人工智能在教育和社會中的應(yīng)用,確定其在自身生活和職業(yè)中的作用和價值。

(二)人工智能為教師教學(xué)賦能

1. 人工智能提升教學(xué)質(zhì)量

麥肯錫的一份調(diào)研報告提出,人工智能可以通過減少教師的行政或文書工作中的低級負(fù)擔(dān)來改善教學(xué)工作,并建議將所節(jié)省的時間用于更有效指導(dǎo)學(xué)生。[4]因此,人工智能可用于處理一些低級的細(xì)節(jié)任務(wù)以減輕教學(xué)負(fù)擔(dān)并增加對學(xué)生的關(guān)注。其次,人工智能可以拓展教師對學(xué)生的作用范圍。比如教師并不能隨時隨地在學(xué)生身邊提供幫助,但是可以借助人工智能生成性評價結(jié)果,了解學(xué)生情況并及時反饋,由此擴(kuò)展了教師的認(rèn)知范圍。最后,人工智能可以使教師專業(yè)發(fā)展更加高效。最新研發(fā)技術(shù)已經(jīng)能夠記錄教師課堂內(nèi)容并為教師推薦教學(xué)方案,課堂模擬工具也不斷多樣化,可以幫助教師在真實情境中練習(xí)技能。

2. 人工智能對教師工作的挑戰(zhàn)

第一,平衡人機(jī)決策。教師需要在教學(xué)中決定哪些內(nèi)容可以完全委托給人工智能,并監(jiān)控人工智能系統(tǒng),干預(yù)其決定。這給教師帶來額外的決策挑戰(zhàn)。第二,避免監(jiān)控的同時簡化教學(xué)工作。技術(shù)可以簡化工作,但也可能會造成對教師行為數(shù)據(jù)的監(jiān)控。監(jiān)控情況越嚴(yán)重,則教師對人工智能的信任程度越低。第三,保護(hù)學(xué)生優(yōu)勢的同時保護(hù)學(xué)生隱私。人工智能不可避免地會獲取學(xué)生的人口統(tǒng)計信息,因此必須考慮學(xué)生隱私保護(hù)問題。學(xué)生與人工智能的交互必須受法律保護(hù),在人工智能模型開發(fā)中,其基礎(chǔ)數(shù)據(jù)可能并不具有代表性。因此,必須充分考慮公平、安全性和有效性等問題。

3. 應(yīng)對舉措

首先,利用人工智能增強教學(xué)必須堅持以人為本的教學(xué)觀,始終以教育者為中心。教師應(yīng)參與人工智能技術(shù)的設(shè)計、決策、選擇和評價,在教學(xué)準(zhǔn)備、教學(xué)計劃和教學(xué)反思過程中以教師為中心,支持教師在即時教學(xué)工作中做出即時決策。其次,需要構(gòu)建可檢查、可解釋、可覆蓋的人工智能。人工智能系統(tǒng)決策的可解釋性是教師判斷人工智能自動決策能力的關(guān)鍵,有助于教師培養(yǎng)對人工智能適當(dāng)程度的信任,教師需要知道人工智能模型如何分析學(xué)生行為及做出相應(yīng)決策的原因。最后,美國教育部也呼吁在評價人工智能模型時考慮公平因素,了解特定人工智能系統(tǒng)中可能出現(xiàn)的歧視性偏見,以及開發(fā)人員的相關(guān)對策。教師還需要有權(quán)限查看并有能力對人工智能的自動決策做出正確判斷。
圖片

(三)人工智能促進(jìn)形成性評價

1. 形成性評價的改進(jìn)方向

2017 年《美國國家教育技術(shù)計劃》討論了技術(shù)如何從 7 個維度改進(jìn)形成性評價:啟用增強型問題、測量復(fù)雜能力、提供實時反饋、增加可訪問性、適應(yīng)學(xué)習(xí)者的能力和知識、學(xué)習(xí)過程中的嵌入式評價和持續(xù)學(xué)習(xí)評價。形成性評價是學(xué)校探索人工智能在教學(xué)和學(xué)習(xí)中應(yīng)用的主要領(lǐng)域。形成性評價并不單表示測試或測量,也包含根據(jù)評價結(jié)果對教學(xué)和學(xué)習(xí)過程產(chǎn)生的反思和改變,即反饋循環(huán)(feedback loop)。教育工作者可以將他們長期以來對形成性評價的愿景與人工智能所擁有的最新性能結(jié)合起來,增強反饋循環(huán),促進(jìn)教學(xué)改進(jìn)。人工智能增強的形成性評價可以節(jié)省教師時間,使教師可以用更多時間幫助學(xué)生。因此,部署人工智能增強的形成性評價的一個重要原則必須是以教師為中心。

2. 人工智能促進(jìn)形成性評價的發(fā)展方向和挑戰(zhàn)

人工智能在形成性評價中有三個重點發(fā)展領(lǐng)域,一是高度重視重要事務(wù)的評價,尤其是不易進(jìn)行評價的事務(wù),以及民眾期盼能夠納入反饋循環(huán)中的事務(wù)。二是提升尋求幫助和提供幫助的事務(wù),尋求和給予幫助對于成長型思維的形成至關(guān)重要,也是反饋循環(huán)概念的核心。三是提倡教師和學(xué)生積極參與和設(shè)計反饋循環(huán),使評價更簡潔、方便和有價值。偏見和公平是評價工具設(shè)計和使用中的重要問題,人工智能算法所參考的數(shù)據(jù)集不能代表所有的學(xué)習(xí)者群體,因 此 存 在 算 法 歧 視(algorithmic discrimination)。算法歧視不僅涉及形成性評價的測量方面,也涉及反饋循環(huán),以及根據(jù)形成性評價結(jié)果采取的教學(xué)干預(yù)和支持。報告中建議,利用評價專業(yè)知識以減少偏見,審慎對待偏見和公平性。目前,心理測量學(xué)領(lǐng)域已經(jīng)開發(fā)出相應(yīng)工具,這在解決人工智能在教育中的偏見和公平性方面可能有一個良好的開端。[5]

(四)人工智能促進(jìn)教育情境研發(fā)

1. 人工智能需要平衡技術(shù)和情境研發(fā)

2010 年發(fā)布的《美國國家教育技術(shù)計劃》所提出的創(chuàng)建個性化學(xué)習(xí)系統(tǒng)更多側(cè)重技術(shù)層面。[6] 而現(xiàn)在人工智能技術(shù)促進(jìn)個性化教學(xué)則更側(cè)重于情境研究,開發(fā)能更廣泛響應(yīng)學(xué)習(xí)者特征和狀態(tài)的平臺。人工智能研發(fā)的情境深度和技術(shù)進(jìn)步速度之間存在一定張力,一方面,人工智能需要快速推進(jìn)新技術(shù)或擴(kuò)展新應(yīng)用程序;另一方面,人工智能創(chuàng)新研發(fā)需要盡早在過程中引進(jìn)更多情境。因此,研發(fā)人員需要審慎處理技術(shù)和情境之間的平衡。

2. 關(guān)注未來重點教育情境研發(fā)

人工智能的未來研發(fā)應(yīng)從狹隘的技術(shù)問題轉(zhuǎn)向更豐富的情境問題,比如,關(guān)注學(xué)習(xí)者的差異性,關(guān)注學(xué)生在學(xué)習(xí)環(huán)境中與同齡人的互動,家校社之間的關(guān)系、文化資產(chǎn)、教學(xué)資源,教師資源、教學(xué)政策與系統(tǒng)構(gòu)建等。為了更充分地代表教學(xué)和學(xué)習(xí)的背景,研究人員必須與教育相關(guān)者合作,了解哪些背景與教學(xué)和學(xué)習(xí)最相關(guān),以及如何有效納入人工智能模型。

人工智能可以從四方面推進(jìn)情境研發(fā)。一是關(guān)注長尾(long tail)場景。長尾場景主要指種類繁多、發(fā)生概率較低或者突發(fā)的場景。應(yīng)利用大數(shù)據(jù)和人工智能更多地關(guān)注教育技術(shù)使用的“長尾場景”,解決數(shù)字公平和包容問題。二是基于設(shè)計的研究合作。擴(kuò)大人工智能設(shè)計人群,增加學(xué)生、教師和其他教育成員的參與度。三是聯(lián)系公共政策。在人工智能倫理、安全和監(jiān)管政策基礎(chǔ)上,開展教育領(lǐng)域人工智能研究。四是重新思考教師專業(yè)發(fā)展。開發(fā)教師專業(yè)發(fā)展系統(tǒng),以適應(yīng)技術(shù)在教學(xué)專業(yè)中日益重要的核心作用。

人工智能在教育中應(yīng)用的未來發(fā)展建議

報告在討論人工智能技術(shù)對學(xué)習(xí)、教學(xué)、評價和研發(fā)影響基礎(chǔ)上,分別從人工智能技術(shù)開發(fā)設(shè)計層面和制度層面提出了共七條政策建議。

在人工智能技術(shù)開發(fā)層面,第一,強調(diào)“人在回路中”(Humans-in-the-Loop)。報告認(rèn)為人工智能無法取代教師,美國教育部呼吁所有相關(guān)方采納“人在回路中”作為一個關(guān)鍵標(biāo)準(zhǔn)。在應(yīng)用人工智能時,教師和其他人必須“處于回路中”,以便觀察人工智能模式和自動化教育過程。第二,將人工智能模型與共同的教育愿景結(jié)合起來。教育決策者、研究人員和評價人員不僅要根據(jù)結(jié)果來評價教育技術(shù)的質(zhì)量,還要衡量人工智能工具和系統(tǒng)的核心模型與教學(xué)和學(xué)習(xí)共同愿景的一致程度。第三,使用現(xiàn)代學(xué)習(xí)原則設(shè)計人工智能?;谝呀?jīng)確立的現(xiàn)代學(xué)習(xí)原則、教育從業(yè)者的經(jīng)驗積累,并利用教育評價界的專業(yè)知識來檢查算法偏見和提高公平性。第四,將研發(fā)重點放在解決情境問題和增強信任與安全性上。關(guān)注人工智能系統(tǒng)如何適應(yīng)情境,研究人員及其資助者應(yīng)優(yōu)先考慮人工智能如何處理學(xué)習(xí)的多樣性,充分考慮情境因素,并關(guān)注如何提高人工智能在教育系統(tǒng)的信任和安全性。

在制度層面,第一,優(yōu)先加強信任。在協(xié)會、會議和專業(yè)組織中建立信任,建立新興教育技術(shù)的可信度標(biāo)準(zhǔn),以便教育工作者、創(chuàng)新者、研究人員和政策制定者團(tuán)結(jié)協(xié)作。第二,教育工作者知情并參與。教育領(lǐng)導(dǎo)者必須優(yōu)先使教育相關(guān)方知情并參與,以便調(diào)查人工智能何以滿足特定的教學(xué)需求,并預(yù)判可能增加的風(fēng)險。教育工作者需要能夠檢查并解釋人工智能系統(tǒng),并指導(dǎo)人們發(fā)揮人工智能的更大價值。教育技術(shù)辦公室可以在提供信息和促進(jìn)參與方面發(fā)揮主導(dǎo)作用,配合教育系統(tǒng)各級組織活動的開展。第三,制定專門的教育指南和防護(hù)措施。雖然數(shù)據(jù)隱私法規(guī)已經(jīng)涵蓋了教育技術(shù),數(shù)據(jù)安全已經(jīng)是學(xué)校教育技術(shù)領(lǐng)導(dǎo)者的優(yōu)先事項。為了應(yīng)對人工智能不斷迭代而具備的新功能以及相應(yīng)的風(fēng)險,需要對數(shù)據(jù)安全和隱私教育進(jìn)行修改和增強。生態(tài)系統(tǒng)中所有相關(guān)方需共同制定一系列指南和防護(hù)措施,以實現(xiàn)人工智能在教育領(lǐng)域安全有效的應(yīng)用。(本文系中國教育科學(xué)研究院 2023年度基本科研業(yè)務(wù)費專項資金項目“基礎(chǔ)學(xué)科人才培養(yǎng)高大銜接路徑研究”階段性成果,項目編號:GYJ2023040)

參考文獻(xiàn)

[1] IEEE-USA Board of Directors. Artificial intelligence research, development and regulation[EB/OL].(2017-02-10)[2023-03-28].http://globalpolicy./wp-content/uploads/2017/10/IEEE17003.pdf 

[2] Friedman, L., Blair Black, N., Walker, E., &Roschelle, J. Safe AI in education needs you. Association of Computing Machinery blog[EB/OL].(2021-11-08)[2022-06-27]. https://cacm.acm.org/blogs/blog-cacm/256657-safe-ai-in-education-needs-you/fulltext 

[3] Gartner. Gartner glossary: Augmented intelligence[EB/OL]. (2019-10-08) [2022-06-27]. https://www./en/information-technology/glossary/augmented-intelligence 

[4] Bryant, J., Heitz,C., Sanghvi, S., & Wagle, D.. How artificial intelligence will impact K-12 teachers. McKinsey[EB/OL]. (2020-01-14)[2023-03-05].https://www./industries/education/our-insights/how-artificial-intelligence-will-impact-k-12- teachers 

[5] Kaplan, R.M., &Saccuzzo, D.P. Psychological testing: Principles, applications, and issues. Cengage Learning[M]. 2017

[6] U.S. Department of Education, Office of Educational Technology. Transforming American Education: Learning Powered by Technology[R]. 2010:78

(本文來源于《上海教育》雜志2023年7月10日出版,版權(quán)所有,更多內(nèi)容,請參見雜志。作者系中國教育科學(xué)研究院比較教育研究所,吳云雁)


圖片

圖片

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多