下载贤集网APP入驻自媒体
据IEEE报道。训练许多现代 AI 工具背后的大型神经网络需要真正的计算能力:例如,OpenAI 最先进的语言模型 GPT-3需要惊人的数以亿计的操作来训练,并且花费了大约 500 万美元的计算时间。工程师们认为他们已经找到了一种通过使用不同的数字表示方式来减轻负担的方法。 马德里康普顿斯大学的一组研究人员开发了第一个在硬件中实现 posit 标准的处理器内核,并表明,基本计算任务的精度逐位提高了四个数量级,与使用标准浮点数进行计算相比。他们在上周的IEEE 计算机算术研讨会上展示了他们的结果。 “如今,摩尔定律似乎开始消退,”康普顿斯公司 ArTeCS 小组的研究生研究员大卫·马拉森·昆塔纳 (David Mallasén Quintana) 说。“因此,我们需要找到一些其他方法来从同一台机器中获得更多性能。做到这一点的方法之一是改变我们对实数进行编码的方式,以及我们表示它们的方式。