不过,汤教授是麻🟝省理工毕业的博士,很权威,大家都很相信他。

    面对这么多实验室的同事🚠🔮🃻和学生,汤教授就像上课一样🛽⚔,要说得详细一些。先简单阐述了一下逻辑学到统计学的思路转变。

    图像由无数个点组成,分辨率越高,点数越多;分🐤辨率越低,点数越少。

    把图像扩大🇞🙪🍏1倍,其实🐡🁕就是把点数🃲增加1倍。

    过去的算法,是数学、逻辑学的思路。即有了前一个节点,然后根据数学逻辑,推演到了下一个点,一个点变为两个点,就完成了拓展。把图片中所有的点👒🈐♂都处理、扩展一遍,图片的放大就🝌🉭完成了。

    可这是个确切的过程。

    选择的节点得是确定的,才能⚚👺🍶衍生出第二个点。

    如果第一个节点都是模糊的、不确定的,就算数学公式、逻辑思路再正确,也没用啊,巧妇难☲🃗为无米之炊。

    新的大数据下的图🟝像处理思路,应用到的是统计学算法。

    比如,有两条路,🟝都可以到达终点,运动员选择哪一🏏🙆🈆条路耗时更短?

    传🄨统的思路,就要通过数学和逻辑学上的计算。

    计算路程长度,运动员的速度,以及运动员的状态、耐力、加速度、减⚧速度、摩擦力所影响的摔倒几率等等。

    拿出一套极复杂的公式出来。

    可是⛍🙅,如果过来的运动员是没有腿的🃝😳残疾人,或者盲人怎么办?过去的这套公式就都没用了。

    统计学的思路就很简单了。

    两条路,不管是正常人、残疾人,还是自行车、汽车,都无所谓,统计数据就好了。左边这条路测算1万次,右边这条路测算1万次。😐🀢

    经过测试,左边赢了80🚠🔮🃻0🉀0次,右边赢了2000次,结果就出来了。

    选择左边这条路耗时更短!

    应用在模糊照片的清晰化处理⚚👺🍶上,就是大数据下的统计学。

    比如一个🛶♏🇜模糊化的鼻子,原始形象是什么样?

    统计就好了。

    选1万个不同种类的鼻子,然后进行模糊化处理。模糊化处理后的鼻子,哪个🄰🁊跟模糊照片中的鼻子点位重合最高,就是哪个。