阅读别人的博文,尤其是优秀的博文,可以让一个人获益很多。对于机器学习,存在一些优秀的博文是需要认真阅读学习的,它们主要来自Kaggle Competition Winners,发布在Kaggle的官方博客上。在这些博文中,作者站在自己的视角上解释了怎么做特征工程和怎么进行模型选择,这是我们在做机器学习时都要解决的问题,这些博文给我们提供了一个很好的可借鉴的经验,并且其相比官方文档而言在模型解释方面可读性更高,更易理解。
闲言少叙,我们看看都有哪些博文:
这个列表以后可能会变得很长。我会不定期地去阅读一下。
- http://blog.kaggle.com/2015/01/02/cifar-10-competition-winners-interviews-with-dr-ben-graham-phil-culliton-zygmunt-zajac/
- http://blog.kaggle.com/2016/07/21/approaching-almost-any-machine-learning-problem-abhishek-thakur/
- http://blog.kaggle.com/2017/01/23/a-kaggle-master-explains-gradient-boosting/
- https://elitedatascience.com/overfitting-in-machine-learning
- http://ruder.io/optimizing-gradient-descent/
Advertisements