第1335章 不确定性到确定性的转化(2 / 5)

大时代之巅 荒野悲歌 1744 字 2023-05-24

任,是这个实验室人工智能领域研究方向的引领者,所有的教授和博士、硕士们都要按照他的这个大方向去研究。

他的方向选择对了,所有人都会一步跨上人工智能领域的大舞台,成为行业里的资深专家。他选择错了,大家一起完蛋。

不过,汤教授是麻省理工毕业的博士,很权威,大家都很相信他。

面对这么多实验室的同事和学生,汤教授就像上课一样,要说得详细一些。先简单阐述了一下逻辑学到统计学的思路转变。

图像由无数个点组成,分辨率越高,点数越多;分辨率越低,点数越少。

把图像扩大1倍,其实就是把点数增加1倍。

过去的算法,是数学、逻辑学的思路。即有了前一个节点,然后根据数学逻辑,推演到了下一个点,一个点变为两个点,就完成了拓展。把图片中所有的点都处理、扩展一遍,图片的放大就完成了。

可这是个确切的过程。

选择的节点得是确定的,才能衍生出第二个点。

如果第一个节点都是模糊的、不确定的,就算数学公式、逻辑思路再正确,也没用啊,巧妇难为无米之炊。

新的大数据下的图像处理思路,应用到的是统计学算法。

比如,有两条路,都可以到达终点,运动员选择哪一条路耗时更短?

传统的思路,就要通过数学和逻辑学上的计算。

计算路程长度,运动员的速度,以及运动员的状态、耐力、加速度、减速度、摩擦力所影响的摔倒几率等等。

拿出一套极复杂的公式出来。

可是,如果过来的运动员是没有腿的残疾人,或者盲人怎么办?过去的这套公式就都没用了。

统计学的思路就很简单了。

两条路,不管是正常人、残疾人,还是自行车、汽车,都无所谓,统计数据就好了。左边这条路测算1万次,右边这条路测算1万次。

经过测试,左边赢了8000次,右边赢了2000次,结果就出来了。

选择左边这条路耗时更短!

应用在模糊照片的清晰化处理上,就是大数据下的统计学。

比如一个模糊化的鼻子,原始形象是什么样?