威尼斯人娱乐场-威尼斯人娱乐网代理注_百家乐社区_sz新全讯网网站112(中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
百家乐单机版的| 百家乐官网有无技巧| 大发888官网是多少| 百家乐官网赌博策略| 百家乐网址官网| 保险百家乐官网怎么玩| 马牌百家乐的玩法技巧和规则| 库车县| 百家乐开户最快的平台是哪家 | 河津市| 百家乐庄闲和赢率| 赌百家乐官网的高手| 线上百家乐赌法| 百家乐官网赢的秘诀| 威尼斯人娱乐最新地址| 最好百家乐官网的玩法技巧和规则| 神话百家乐官网的玩法技巧和规则 | 百家乐投注网中国| 大发888赌场官方下载| 皇冠百家乐官网的玩法技巧和规则| 顶级赌场连环夺宝下注有什么窍门 | 属蛇和属猪做生意| 渭南市| 百家乐输一压二| 百家乐官网路单破解方法| 涂山百家乐的玩法技巧和规则| 百家乐官网平台送彩金| 百家乐筹码片| 百家乐算牌皇冠网| 大玩家百家乐官网游戏| 大发888大发888官网| 百家乐网站哪个好| 金矿百家乐官网的玩法技巧和规则| 富裕县| 大发888娱乐城lm0| 乐天堂百家乐官网娱乐城| 马牌百家乐官网现金网| 大发888扑克场下载| 成都百家乐官网牌具| 澳门百家乐官网战法| BET365官方网|