打印

【21ic辰阅】关注AlphaGo和李世石挑战赛

[复制链接]
楼主: 21ic小喇叭
手机看帖
扫描二维码
随时随地手机跟帖
41
MENTOR55=55| | 2016-3-10 23:20 | 只看该作者 回帖奖励 |倒序浏览
更有一群傻子。

谢谢大家!

妄图把模糊控制应用于工业控制。

这简直太可笑了。

再次感谢大家!

模糊控制众所周知就是模模糊糊糊里糊涂地进行控制的意思。

聪明的中国人是不可能使用这么愚蠢的算法的。

模糊控制本质上是开环控制而无法成为闭环控制。

所以忽悠傻小子可以。

谢谢大家!

如果模糊控制在闭环之中那么这是严重的非线性问题。

你如何保证稳定性?

至少理论上是无法证明任何关于非线性的问题的。

使用特权

评论回复
42
MENTOR55=55| | 2016-3-10 23:39 | 只看该作者
总而言之。

谢谢大家!

这种所谓的人工智能用于下棋的。

其实仅仅就是一个程序罢了。

如果任何程序都可以被称作人工智能的话。

其实word和excel都可以称之为人工智能。

这个阿尔法狗仅仅就是一个类似word的程序罢了。

与负反馈关系不大。

仅仅就是一个普通的程序罢了。

没有必要把一个程序美化为人工智能。

程序确实是人类的智能的产物。

但人工智能仅仅就是忽然不懂的人用的。

谢谢大家!

使用特权

评论回复
43
MENTOR55=55| | 2016-3-11 20:10 | 只看该作者
西方科技是朴素的唯物主义。

谢谢大家!

所谓的人工智能也不例外是非常朴素的科技。

即使所谓人工智能为了取得突破其实也不可能对于人类智能产生影响。

但人工智能可以成为人类的一个很好的助手。

人工智能无法取代人类。

除非人类不思进取而走向灭亡。

再次感谢大家!

使用特权

评论回复
44
MENTOR55=55| | 2016-3-11 20:17 | 只看该作者
通常的方程都是系数已知。

谢谢大家!

而未知数不知道。

而所谓的人工智能的算法其实是已经知道结果但需要求系数的问题。

得到系数就可以推测新输入输据的输出了。

这是必然的简单和朴素的人类必定会出现的技术。

一点不奇怪。

如今和今后的人工智能其实与人类智慧完全不在一个层次上。

能做的事情在多也仅仅就是算法和数据更强大而以。

可以做到非常像人类但不会成为人类。

人工智能仅仅就是一个机器而不会对人类智慧产生威胁。

目前的人工作智能仅仅就是给定大量数据来计算可能的系数问题从而产生一个比较好的结果。

棋类比赛机器能赢说明不了任何问题。

人工智能一词仅仅就是商业手段忽悠不懂的人罢了。

再次感谢大家!

使用特权

评论回复
45
MENTOR55=55| | 2016-3-11 20:21 | 只看该作者
不用说棋类比赛。

就算是计算1.8709*2.253也是计算机快而人类压根不可能成为对手。

就更不用说棋类比赛了。

任何棋类比赛机器算法成熟数据充分都可以赢。

这只能说明程序的先进程度而不是智慧程度。

人工智能仅仅就是商业利益的说法。

任何人类不做的事情都可以归为“人工智能”。

例如洗衣机就是一个人工智能产品。

洗衣机确实可以模仿人类洗衣服所以必定就是人工智能。

真正的智能必须具有自主性。

学习型和面对现实解决问题性。

完全自主的目前只能是人。

而人类制作的机器永远不可能具有人的智能。

人工智能仅仅就是一个商业利益忽悠不懂的人的名词罢了。

谢谢大家

使用特权

评论回复
46
MENTOR55=55| | 2016-3-11 20:38 | 只看该作者
自适应和所谓预测控制之类的。

可以在人工智能领域发挥作用。

但用于工业生产过程控制就是蓄意欺骗了。

谢谢大家!

自适应和所谓的神经元深度学习之类的很类似。

本质其实一样。

但是目标函数的最小值问题不是工业过程控制需要的指标。

一个温度压力流量液位信号的控制需要达到设定值。

这不是人工智能和自适应和预报控制所能解决的问题。

只能由经典控制方法解决。

再次感谢大家!

自适应控制和所谓的预测控制都是教科书的受害者们的产物。

对于教科书的受害者们来说能够在所谓的理论方面张牙舞爪一次也是很风光的事情。

但唯一的不幸就是经不起实践的检验而以。

再次感谢大家!

使用特权

评论回复
47
MENTOR55=55| | 2016-3-12 17:01 | 只看该作者
不能说阿尔法go是人类智慧的胜利。

谢谢大家!

什么神经元和深度学习之类的。

仅仅就是一种新型的解决问题的方法。

就像一个人因为无法解决一元N次方程而走投无路一样。

破罐破摔就出现了人工智能的算法。

也可以可以说这是反常规方程的解法。

反正人们也无法对任何事物进行正确的列方程的工作。

解方程就更难。

所以破罐破摔何不来个大数据?

答案是肯定的。

也许这么说未必符合神经元之类的发展过程。

但事实就是如此者无法否定。

只有不懂装懂的才把人工智能当回事。

再次感谢大家!

使用特权

评论回复
48
MENTOR55=55| | 2016-3-12 17:05 | 只看该作者
根据一大堆过去的已经存在的数据推测未来变化。

谢谢大家!

的确自适应控制和所谓的预报控制就是这么干的。

但非常不成功。

这2者其实是失败者。

因为需要一个固定模型。

但这个模型其实人们无法精确得到。

所以你还能干什么?

不破罐破摔你还能干什么?

当自适应知道自己无法获得真正的确定的控制对象的模型的时候。

它会怎么干?

答案就是没有办法。

人类从来就没有对于一元5次方程的解析解问题发愁过。

的意思就是说人们对于一元N次方程的无能为力导致了人们只能视而不见。

谢谢大家!

使用特权

评论回复
49
MENTOR55=55| | 2016-3-12 17:06 | 只看该作者
人工智能的神经元和深度学习是个什么东西呢?

谢谢大家!

当人们彻底绝望的时候。

当然了混饭吃的中国学术界总会找到敛财的方法的。

再次感谢大家!

使用特权

评论回复
50
MENTOR55=55| | 2016-3-12 17:09 | 只看该作者
反正已经绝望。

谢谢大家!

何不来个破罐破摔地发明一个大数据的人工智能?

其实这里的意思是说。

所谓的人工智能是无法被证明的。

因为人类无法解决一元5次方程的问题。

连数值计算都无效。

因为实际事物压根就不可能存在一个精确的数学模型可以用方程来表达。

所以只能破罐破摔地发明人工智能。

这是必然的。

但人工智能行业的中国外行们不可能明白这个简单的道理。

还不人工智鞥当作新的可以用来欺骗中国人的敛财工具呢!

再次感谢大家!

使用特权

评论回复
51
MENTOR55=55| | 2016-3-12 17:12 | 只看该作者
人类无法解决一元5次方程的解析解。

虽然可以数值解。

但是实际事物不是方程这么简单。

也就是说人类意想出来的所谓对于实际事物的方程都是无法成立的。

人类对于天气预报制作很多数学模型但是本质上是无效的。

因为你的模型还是仅仅就是一个粗糙的模型不能代表实际事物。

所以人类其实没有办法解决这个问题。

反正也无法解决这些问题。

何不来个大数据?

对于中国人来说就又多了一个可以欺骗中国人进行敛财的方法了。

何乐而不为?

答案是肯定的!

谢谢大家!

使用特权

评论回复
52
MENTOR55=55| | 2016-3-12 17:16 | 只看该作者
所以在本大师的教导下。

谢谢大家!

人们必须明确所谓的人工智能和神经元和深度学习到底是什么。

这是没有办法的办法。

人工智能的方法无法被证明。

但假如从过去的数据学习来的模型 可以预测未来而且与实际情况符合。

那么SofarSogood可以认为这个大数据的模型是对的。

到目前为止是对的。

但你无法证明这一切到底是什么和为什么。

你智能说。

你输入计算机1.2341234*324.3后计算机给了你一个结果而无需你亲自去算。

所谓大数据的人工智能的自学习其实就是一个没有办法的办法。

可能行之有效而且可能性很大。

但人们其实无法证明和知道的。

再次感谢大家!

使用特权

评论回复
53
MENTOR55=55| | 2016-3-12 17:18 | 只看该作者
因为自适应就是这么干的。

但无法成功。

而且自适应还是需要一个精确模型的。

虽然是意想出来的。

但如果效果还行那么人们可以认可这个模型。

但严重依赖模型的自适应其实还无法适应模型的变化。

一旦模型变化自适应就彻底玩完。

再次感谢大家!

使用特权

评论回复
54
MENTOR55=55| | 2016-3-12 17:19 | 只看该作者
所以无论自适应还使预测控制。

谢谢大家!

其实人们早就穷途末路了。

只有不懂装懂的中国学术界依然在用自适应来行骗。

再次感谢大家!

使用特权

评论回复
55
MENTOR55=55| | 2016-3-12 17:21 | 只看该作者
穷途末路的人类。

谢谢大家!

下一步该怎么办?

反正也没有办法。

何不来个大数据的人工智能的神经元的深度学习?

答案是肯定的。

凡是都是无解析解的。

反正都是无法证明的。

通过过去的数据用某模型预测未来是人之常情。

何不称之为人工智能的神经径的深度学习呢?

答案依然是肯定的。

再次感谢大家!

使用特权

评论回复
56
MENTOR55=55| | 2016-3-12 17:25 | 只看该作者
人类一直想通过数学方法证明的题目。

谢谢大家!

从来就是无法被证明。

例如1+1=2的问题。

既然精确的数学无法解决何不换一个思路?

所以牛顿发明了迭代方法来解微分方程。

人们用数值计算方法计算方程。

而且被认为理所当然。

但你的数值计算方法能够被证明吗?

从来就无法证明。

你根本就不可能知道数值计算结果正确与否。

但SofarSoGood所以人们本能就接受了。

虽然无法证明数值算法的正确的。

但事实也证明无法证明其是错误的。

所以大家就凑合用吧。

反正SofarSogood当今的问题用数值计算确实还没有发现问题于是乎就可以认为正确了。

当一个事物无法本证明为正确的时候。

同时又无法证明是错误的时候。

人们就本能地认为这是正确的了。

SoFarSoGood!

再次感谢大家!

使用特权

评论回复
57
MENTOR55=55| | 2016-3-12 17:27 | 只看该作者
人工智能的深度学习其实就是这么一个玩意。

谢谢大家!

无法证明其正确性。

但SofarSoGood地又无法证明其错误。

所以就被当作正确的了。

一旦其失效。

人们自然会发现问题并解决问题地打补丁。

于是这个人工智能的深度学习就不断完善一直与人们就更无法认为其错误了。

谢谢大家!

使用特权

评论回复
58
MENTOR55=55| | 2016-3-12 17:32 | 只看该作者
根据过去的大数据。

来自学习得到一个模型。

其实就是神经元的系数问题。

用目标函数最小的指标来解方程得到神经元的系数。

并用数据不断完善学习。

这一套机制是人类本能就接受的。

数学上恰好有一套方法解决。

但其正确性是无法被证明的。

只能SoFarSogood。

因为人类没有对任何事物有精确的数学模型般的精确认识。

所以只能认怂而换一个角度解决问题。

神经元通常被认为是学习模仿人类大脑的活动。

其实是请途末路的根据以前数据建立一个模型并不断更新的过程。

这一切都是无法被证明的。

但数学一些方法可以被用于神经元深度学习的参数计算之中。

什么梯度最优之类的算法。

本质上这都是瞎猫碰死耗子的做法。

但SoFarSoGood而已。

也许未来确实不再需要证明什么。

而是只要SoFarSoGood即可。

再次感谢大家!

使用特权

评论回复
59
MENTOR55=55| | 2016-3-12 17:53 | 只看该作者
假如人工智能下棋。

谢谢大家!

因为其有目标的最优指标。

其运行的中间结果就像密码一样人类是无法理解的。

但这些结果可以最终达成赢棋的目的。

所以这就是别出心裁的棋谱为教科书的受害者所无法理解的。

通常教科书的受害者们都知道自己的半瓶子醋有有多少。

就是非常少的意思。

再次感谢大家!

使用特权

评论回复
60
MENTOR55=55| | 2016-3-13 13:56 | 只看该作者
各行各业都是一样的。

谢谢大家!

教科书需要成为遵守牛顿和爱因斯坦的著作的记录员。

如果你没有比牛顿更高的水平或创新你就不能对于牛顿的理论添油加醋。

即使你在使用牛顿理论的时候发现了问题也解决了问题。

这证明你是一个好人。

你可以和牛顿相提并论。

人们需要用所学知识来进行创新。

如果你只是教科书一样地循规蹈矩那么你仅仅就是一个教科书的受害者。

凡教科书的受害者必定害人害己。

这是千古不变的真理。

再次感谢大家!

使用特权

评论回复
发新帖 我要提问
您需要登录后才可以回帖 登录 | 注册

本版积分规则