发布网友 发布时间:2022-04-22 06:33
共2个回答
热心网友 时间:2023-10-17 14:06
人工智能机器学习真心不难,看下我的分析,我把学习重点都给列出来了。千万别信人工智能需要搞一年以上。如果效率高,学3个月就可以找到工作。机器学习2个月可以搞定,深度学习15天可以搞定。这些真心真心不难。在美国,有人为了省Coursera的吴恩达深度学习系列课的学费,利用免费的一周拿下五门课的证书,我问他怎么做,他用英文说,仔细听,不需要记笔记,因为资料都是留下来的,忘了就回去再看,Andrew Ng讲得还是很清楚的。吴恩达还有个机器学习课按他这个速度,不要一周也能搞定。
你做个数据分析和图像处理,要学全栈?要学网络?你在逗我吗?
对于机器学习:
本科的概率论学过吧,线性代数学过吧,矩阵乘法不会?又不让你真正去算,能看懂公式和推导就行了;
方差,期望这些中学就学过,正态分布,柏松分布,不努力分布,这些都是很简单的;
线性回归不就是 y = wx +bias吗? 这小学东西,只不过这里把W和X用 Vector 写的,而Vector 就是小学还是初中学的向量。难吗?
Gradient Descent,就是链式求导,也是高等数学的内容,这难吗?
Logistics Regression 这个是把线性回归的 y 通过 sigmoid 函数改到了 0和1之间,你觉得难吗?
对于分类的问题,你就用 Maximum Likelihood,你把所有的点相乘,求导,真的难吗?
贝叶斯就是一个公式而已,建立在条件概率的基础上,读一读公式再看一看例子不就懂了吗?真心难吗?
Optimization就是设定了一个或多个对函数的*,真得想不透吗?
拉格朗日Multiplier就是把一个矩阵分离成用2个矩阵表示,记住不就行了?
Discriminant Regression 就像线性回归和Logistic 回归一样,对你的assumption要求高。Generative Regression 例子就是贝叶斯分离器,就是贝叶斯。真得很难吗?
PCA就是求eigenvalue , eigenvector, 是找投影的最大的方差的feature的一个办法,方差越大说明越能代表整体。又不让你自己计算,看着图想一想不就OK了?
Cluster 代表性的不就是 k means? 你随机搞几个点,周围点的距离分配下,再每轮更新下点不就行了?又不让你手写算法。
SVM 就是一种分类的方法,support vector尽可能把点用平行线或曲线分开,难吗?Kernel 函数不就是取代 X.transpose*X?
Neural Network就是 Logistic 回归的衍生而已。Forwarding 和 Back propagation 你看下书上给的推导也就是链式求导,只不过是反过来,难吗?
热心网友 时间:2023-10-17 14:06
专业的电脑学校的话一般都是2万以上,具体你可以去学校看一下,