A.梯度裁剪
B.權(quán)重衰減
C.批量歸一化
D.增加學(xué)習(xí)率
您可能感興趣的試卷
你可能感興趣的試題
A.輸出值總是正的
B.輸出值總是負(fù)的
C.輸出值在0和1之間
D.輸出值在-1和1之間
A.小數(shù)據(jù)集、相似數(shù)據(jù)
B.小數(shù)據(jù)集、不相似數(shù)據(jù)
C.大數(shù)據(jù)集、相似數(shù)據(jù)
D.數(shù)據(jù)集、相似數(shù)據(jù)
A.強(qiáng)化學(xué)習(xí)算法的組合
B.強(qiáng)化學(xué)習(xí)算法與監(jiān)督學(xué)習(xí)算法的集成
C.強(qiáng)化學(xué)習(xí)算法與無監(jiān)督學(xué)習(xí)算法的集成
D.強(qiáng)化學(xué)習(xí)算法與半監(jiān)督學(xué)習(xí)算法的集成
A.一種用于優(yōu)化策略的方法
B.一種用于計(jì)算狀態(tài)值的方法
C.一種用于選擇動(dòng)作的規(guī)則
D.一種用于表示環(huán)境模型的數(shù)據(jù)結(jié)構(gòu)
A.智能體可以隨時(shí)選擇任何動(dòng)作
B.環(huán)境的動(dòng)態(tài)會(huì)隨時(shí)間改變
C.下一個(gè)狀態(tài)只取決于當(dāng)前狀態(tài)和采取的動(dòng)作
D.智能體可以看到完整的狀態(tài)空間
最新試題
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在自然語言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
反向傳播算法的基本原理是基于什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?