每日寫文章的五個心法 紫式晦澀每日一篇文章第1天 新年新希望! 每天寫文章來增強自己的表達能力. 現在使用Obsidian與ipad可以很輕鬆收集素
211223 思考豆腐塊文章的執行面 目的: 藉由寫豆腐塊文章來強化輸出. 讀者: 放在自己的blog上面. 原則: 一篇文章只講一個觀點. 這個觀點, 快的話應該是要
這是第一篇文章 思考一: 實踐寫作套路, 學習寫作工作總結 想要研究寫作的套路,早上看了一些關於文案寫作的書。但他們的性質跟我們平常知識生產的模式不
學習理論工具箱 紫式晦澀每日一篇文章第37天 前言 今天是2022年第35天, 全年第5週, 二月的第1個週五. 今天對「機器學習理論(Machine Learning
Question Q. 隨時有效矩陣迴歸所需的相關文獻? Q. 隨時有效矩陣迴歸所需的相關文獻? Literature Reduced rank regression 🤔 2013: Reduced rank regression via adaptive nuclear norm penalization : (a) reduced-rank estimation method for the general high-dimensional multivariate regression problems. (b) low-rank matrix approximation problem. 低ran
Question Q. 樹籬算法(Hedge algorithm)的證明技巧? Q. 樹籬算法(Hedge algorithm)的證明技巧? Evidence: 2021:Relaxing the I.I.D. Assumption: Adaptively Minimax Optimal Regret via Root-Entropic Regularization 2021:Relaxing the I.I.D.
Question Q. 樹籬算法(Hedge algorithm)的公平性基礎? Q. 樹籬算法(Hedge algorithm)的公平性基礎? Evidence: 2021:Best-Case Lower Bounds in Online Learning 2021:Best-Case Lower Bounds in Online Learning
Question Q. 樹籬算法(Hedge algorithm)的公平性基礎? Q. 樹籬算法(Hedge algorithm)的公平性基礎? Formulation 問題設定: 「行動$w_t
Question Q. 樹籬算法(Hedge algorithm)的公平性基礎? Q. 樹籬算法(Hedge algorithm)的公平性基礎? 群體脈絡線上學習 a.group-outcome sequence tuple: 時間