Overview
整理されていない資料や開きっぱなしになったタブを貼り付けるだけの場所
Contensts
blog or pdf ですぐやる必要があるもの[0/3]
youtube [0/3]
https://www.youtube.com/watch?v=JJ3yyiXKMDg
- 【大学有機化学】赤外分光法(IR)超基本:原理とスペクトルの読み方
- Python×スペクトル解析[1.2]スペクトルデータの画像表示する - ケイエルブイ
【量子化学計算 #12】量子化学計算のゴールドスタンダード!CCSDとCCSD(T)の理論と実践について解説
imaizumiさんの研究室の学生の研究[0/3]
- [2602.07378] Dichotomy of Feature Learning and Unlearning: Fast-Slow Analysis on Neural Networks with Stochastic Gradient Descent
- [2602.06320] High-Dimensional Limit of Stochastic Gradient Flow via Dynamical Mean-Field Theory
- [2602.07378] Dichotomy of Feature Learning and Unlearning: Fast-Slow Analysis on Neural Networks with Stochastic Gradient Descent
- https://sotanishy.github.io/
動的平均場理論を理解しておきたい.
papers [0/7]
[1706.10239] Towards Understanding Generalization of Deep Learning: Perspective of Loss Landscapes
- [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent | ドクセル
- Loss Landscapes are All You Need: Neural Network Generalization Can Be Explained Without the Implicit Bias of Gradient Descent | OpenReview
- Thoughts on loss landscapes and why deep learning works
Inverse Temperature in RLCT Estimation | SLT Seminar
Hessian Spectrum Analysis deep modelを調べていた途中
- Hessian Spectral Collapse in Deep Learning
https://github.com/francesco-innocenti/NN-Hessian-Papers
- Neural Network Hessian Papers > The Hessian matrix of neural networks or, more specifically, of the loss with respect to model parameters is a central object of study in deep learning for understanding overparameterisation, optimisation and generalisatio
その他
- 機械学習エンジニアに爆速でなるための教材集 #Python - Qiita
- 3週ルール
https://claude.ai/chat/624235d7-5063-4371-9a2b-649fee723150
- 2025の振り返り→mdに変換してた?
SDSに入る前に,生活の設計してた.
- 2025の振り返り→mdに変換してた?
SDS入学前の生活設計→あとで比較してみると面白いかも
- AWS超入門〜Amazon EC2編〜 #初心者 - Qiita