openvpn官网地址

openvpn官网地址

Meta新开源模型Llama 2 Long整体长文处理效能超越GPT-3.5 Turbo

Meta默默发表了新的语言模型研究论文〈Effective Long-Context Scaling of Foundation Models〉,这篇论文讲述关於处理长文本,最高可达到32,768个token的模型Llama 2 Long。这个模型表现良好,经过广泛的基准测试评估,在长上下文任务方面,Llama 2 Long明显优於之前发表的语言模型LLAMA 2,而在700亿参数的版本,不需要人工注释的长指令资料,表现就能优於gpt-3.5-turbo-16k模型整体能力。

语言模型逐渐改变人们与数位世界互动的方式,随着语言模型的部署和规模化,发展出越来越复杂且多样化的用例,但是要能支援更复杂的用例,模型势必需要更有效地处理长上下文输入。

不过,目前开源长上下文的模型仍然能力不足,在评估中表现不佳,而且这些模型通常是使用语言模型损失以及合成任务方法来评估效能,但这些方法无法完全展现模型在多样化、真实世界场景的能力,特别是在处理密集、知识丰富的文件,以及聊天机器人或是程式开发等应用。

用户想要使用强大的长上下文能力,通常还是只能使用Anthropic和OpenAI的大型语言模型API来实现,整体来说,目前缺乏与商业模型可相提并论的开源模型。

而Meta这篇论文的的主要贡献,便是训练出了能够在长上下文任务有良好表现的开源模型Llama 2 Long。研究人员把LLAMA 2当作基础,额外以4,000亿个token进行持续预训练,这些token被切割成许多较小的序列,来训练各种模型变体,像是70亿与130亿参数的模型变体,便使用长度32,768个token的序列进行训练,而340亿与700亿参数的模型变体,则使用使用长度为16,384个token的序列进行训练。

Meta的研究人员以更广泛的方法来评估Llama 2 Long,包括语言建模、合成任务和广泛的实际基准测试,这些测试可以涵盖长短上下文任务。在语言建模方法,他们发现Llama 2 Long存在明确与上下文长度有关的幂定律缩放行为(Power-Law Scaling Behavior),也就是说上下文长度增加时,模型的效能也会按照固定比例增加。这代表提供更多的文本资讯时,模型也会表现得更好,因此模型能够利用更多的文本资讯,做出更准确的预测。另外,幂定律缩放行为也说明,上下文长度是缩放语言模型的另一个重要的要素。

与Llama 2相比,Llama 2 Long除了在长上下文任务能力有明显的进步外,在标准短上下文任务,例如程式开发、数学和知识基准,也都有一定程度的改进。研究人员提到,他们发现一个简单且成本效益高的方法,不需要人工注释资料,就能微调持续预训练的长模型成聊天模型,在问答、摘要和多文件聚合任务的长上下文基准测试上,整体效能超越gpt-3.5-turbo-16k。

Meta研究人员继续Llama 2语言模型的发展,利用额外4,000亿个token进行训练,并在短、长任务超越Llama 2表现,而且相较於现有的开源长上下文模型,以及gpt-3.5-turbo-16k模型,Llama 2 Long在经过简单指令微调後,已经可以表现出良好的效能。…

openvpn官网地址

从 IFA 2023 看消费性电子发展态势

本篇文章将带你了解 :

  • 南韩与欧美大厂维持多元产品线同步布局,诉诸产品高度智慧化
  • 电视仍为兵家必争之地,大画面、易部署、重晶片成发展关键
  • 全球消费性电子与家电市场 2023 上半年虽因通货膨胀、市场饱和、需求下降等负面要素影响,较 2022 年同期略为萎缩,然而下半年产业有望藉由绿化等市场需求逐步复苏。具体而言,由 AI 创新设计驱动的消费动机、与户外活动推升的消费力道,以及节能减碳打造的消费背景,将型塑短、中期消费性电子产业之发展轮廓。本篇文章将带你了解 :

  • 南韩与欧美大厂维持多元产品线同步布局,诉诸产品高度智慧化
  • 电视仍为兵家必争之地,大画面、易部署、重晶片成发展关键
  • openvpn官网地址

    NVIDIA 与 NTT DOCOMO 携手推出全球首个 GPU 加速 5G 网路

    随着生成式人工智慧於全球企业决策者间风靡,全球的电信公司正在探索如何透过 5G 和即将到来的 6G 网路,以具成本效益的方式将许多新的人工智慧应用推送至边缘设备。尤其,电信公司计划在 2025 年之前在全球部署超过 1,700 万个 5G 微型基地台和塔台。在建立、管理和最佳化这种新基础设施的同时,仍然保持服务品质并极大化提升客户体验,是此产业面临的下一个重大挑战。

    NVIDIA 与 NTT DOCOMO 正式宣布,正在其日本网路中部署 GPU 加速的无线解决方案,这使其成为全球首家部署 GPU 加速商用 5G 网路的电信公司。DOCOMO 该计画将解决推动效能改善、总持有成本和能源效率改进的数十亿美元问题,同时释放 Open RAN 的灵活性、可扩充性和供应链多样性承诺。

    NVIDIA 表示,5G Open RAN 解决方案使用富士通 NVIDIA Aerial 虚拟无线接取网路堆叠 (NVIDIA Aerial vRAN stack) 和 NVIDIA …

    openvpn官网地址

    当 AI 学会闻气味,人类就可以少工作 70 年

    不知道有多少人还记得 Google Nose。

    这个Google在2013年愚人节上线的搞怪计画,声称有一个包含1,500万种味道的气味资料库,用户只需要在Google搜寻框输入关键词,点击「闻一闻」,就能直接在电脑旁闻到该物体的味道,例如新车的味道、篝火的味道以及埃及古墓的味道(?)等。

    (Source:Google)

    就是这个十年前离谱但脑洞大开的玩笑,正被它的发明者部分变成现实。

    今年9月初的《科学》杂志刊登了一篇由新创公司Osmo(从Google分拆)和莫奈尔化学感官中心(Monell Chemical Senses Center)等多个研究团队共同发布的论文,其中称, AI模型可以让机器拥有比人类更好的「嗅觉」。

    乍听之下这简直太不可思议了,毕竟对大众来说,嗅觉是比视觉和听觉抽象得多的存在。RGB颜色图谱可以描述人眼看到的色彩,人耳听到的声音也可以转化为不同频率的波长,甚至让人感受到震动,但唯独嗅觉,看不见摸不着,更难以用量化的指标描述。

    换句话说,把气味数位化听起来就是件不可能的事。

    而这篇论文的研究人员核心要做的,正是去试图创造一个能够如实反映气味特徵的人类嗅觉高维图谱,即POM(Principle Odor Map)。

    具体是怎麽做的呢?

    气味是人类嗅觉系统对散布於空气中的某些特定分子的感应。气味分子进入鼻孔後,会与鼻腔上方的嗅觉细胞产生(受体)反应,产生的生物电波再经由神经传到大脑,进而辨识味道。

    而气味的构成实际上要比色彩、声音复杂得多,有数以百万计的不同种类,每种气味又都由数百个化学分子组成,其性质各不相同。与之相应地,人类的功能性嗅觉受体大约有400个,远远超过我们用於视觉的4个,以及用於味觉的约40个。

    所以面对如此复杂的嗅觉机制,研究人员首先做的事情就是创建了一个机器学习模型──讯息传递神经网路(MPNN)。

    ▲ 模型示意图。

    这是一种特定的图神经网路(GNN),因为图神经网路是一种基於图结构的深度学习方法,将传统的图分析引入,提供了对非规则资料提取特徵的方法,因而也非常适合用来学习复杂的气味特徵。

    模型搭好之後,接下来就要喂它学习材料。

    研究人员结合Good Scents and Leffingwell & Associates(GS-LF)香精香料资料库,建立了一个包含约5,000个分子的参考资料集做为训练基础素材,每个分子可以有多个气味标签,例如果味、花香、起司味和薄荷味等。

    ▲ GS-LF资料库中的部分分子。

    透过将分子的形状结构做为数据输入,模型得以输出最能描述某种气味的对应气味词。

    为了让训练结果更准确,研究者也同样使用各种方法来优化模型参数。例如将GS-LF香精香料资料库依照8:2的比例分成训练集和测试集,训练集被进一步划分为五个交叉验证的子集;以及使用贝叶斯优化演算法对资料进行交叉验证,并对GNN模型的超参数进行最佳化等。

    实验最终将形成如下的嗅觉高维图谱POM(局部):

    这张图直观表示了每种气味的感知距离,例如花香(floral)、肉味(meaty)和酒香(ethereal)几个大类彼此间是存在较大感知距离的;但每个大类下包括更具体的气味,例如花香下的百合花香(muguet)、薰衣草香(lavender)和茉莉花香(jasmine),感知距离则较为接近。

    论文将POM和先前有研究先例的基於摩根指纹的气味空间图(Morgan fingerprint-based maps)进行了对比,发现後者尚无法体现上述感知距离:

    为了进一步验证模型训练效果,研究者接着找来15位气味专家,来和模型比拚谁辨识气味更准确。…

    openvpn官网地址

    开发细胞预测模型,祖克柏夫妇支持医学研究采购千个 AI 晶片

    Meta 执行长 Mark Zuckerberg 和妻子 Priscilla Chan 倡议的非营利组织,正试图利用 AI 技术深入研究人体奥秘,期望带来突破性医学新发现,有助於治癒、预防以及管理所有疾病。

    由 Mark Zuckerberg 和 Priscilla Chan 共同成立的 Chan Zuckerberg Initiative(CZI),宣布资助并打造全球最大规模、用於医学研究的运算系统,将提供健康细胞和染病细胞的预测模型。这套高效能运算丛集的新专案预计由 1,000 个以上 GPU 组成,相信由 NVIDIA H100 GPU 担纲重要的运算角色,可为生物医学大规模支援 AI 和大型语言模型。

    为了开发预测模型,CZI 资助的运算系统将以现有资料集训练模型,包括来自 CZ CELLxGENE Discover 的数据资料,这款开源工具对大约 5,000 万个独特的细胞编入目录。

    事实上,这些先进工具的成本相当昂贵,使得许多研究团队和科学家无法负担,这就是 CZI …

    openvpn官网地址

    NVIDIA AI 晶片将有重大变革,Blackwell 系列采 Chiplet 架构

    外媒报导,GPU 大厂辉达 (NVIDIA) 高效能运算 (HPC) 和人工智慧 (AI) 下一代 Blackwell GB100 GPU 将有重大变革,全面采小晶片 (Chiplet) 设计。

    报导点出了两个关键,首先是 NVIDIA 首款 Chiplet 用於资料中心,与市场传闻继续用标准单片很不同。即便 Chiplet 和单晶片各有优缺点,但考虑到达成性能提升的成本和效率,Chiplet 和先进封装 AMD 和英特尔等竞争对手都在采用,NVIDIA 不得不妥协。

    到今天为止,NVIDIA 证明晶片发展无需 Chiplet 也能达成性能提升,因 Hopper 和 Ada Lovelace 系列 GPU 均提供有史最佳每瓦性能和最大价值。但展望未来,从 Blackwell 系列 GPU 开始,市场可能会看到 …

    openvpn官网地址

    DeepMind 联合创始人:每个人都将拥有自己AI幕僚 – 人工智慧 – TechNice科技岛-掌握科技与行销最新动态

    编译/庄闵棻

    人工智慧(AI)革命已经到来。该技术的一位先驱表示,在未来几年,所有人都将拥有该技术。日前,Google AI部门DeepMind 联合创始人Mustafa Suleyman指出,随着这项技术变得更便宜、更普及,在未来五年内,每个人都将拥有自己的AI个人助理。Suleyman 是AI新创公司Inflection AI 的现任首席执行长,该公司拥有一个名为Pi 的AI聊天机器人。

    在未来五年内,每个人都将拥有自己的AI个人助理。(图/123RF)

    大家都能有自己的AI幕僚

    据外媒报导,Suleyman认为,随着技术的不断发展,AI在人们生活中的作用将不仅仅是个人帮助。他说:「5年内,每个人都会有自己的AI『幕僚』。也就是能帮助大家做出更好的决策的助手」。他表示,像幕僚一样,AI将能「密切了解你的个人资讯,做出符合你利益的决定,并帮你管理和处理你需要的所有资讯」。

    更多新闻:图像编辑App大比拼!10 款可以增强图片的AI编辑器

    比尔盖兹和提姆库克都看好AI

    Suleyman也不是唯一一位看到AI革命潜力的技术领导者。微软联合创始人比尔盖兹就曾为其写了一封长达七页的信。他表示,AI与网路的建立「一样重要」,并预测该技术可以让医疗工作者和教师的工作变得更轻松;苹果公司首席执行长提姆库克也在今年早些时候的财报电话会议上对投资者表示,这项技术具有「巨大潜力」。

    每个人就会变得更聪明、更有生产力

    随着用户找到新的方法将 OpenAI 的 ChatGPT 等生成式 AI 技术融入他们的生活。Suleyman表示,每个人都能获得AI令人印象深刻的功能只是时间问题。他说:「这就像将智力作为一种商品,当其便宜且可用性高时,每个人就会变得更聪明、更有生产力」。Suleyman合着了一本名为《未来浪潮:科技、权力和二十一世纪最大的困境》(The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma)一书,该书记录AI的发展,甚至预测AI将能「将事物保存在其工作记忆中」。

    参考资料:Insider

    ※更多ChatGPT相关讯息,请参考【生成式AI创新学院】。

    openvpn官网地址

    安富利IoTConnect平台第二版增加新功能

    安富利(Avnet)以亚马逊网路服务(AWS)为基础推出的IoTConnect平台第二版将可让原始设备制造商(OEM)更快建立智慧物联网设备。

    这个全功能的版本现在整合了诸多重要功能,例如支援AWS IoT Greengrass、内建动态仪表板、智慧规则引擎,以及AI人工智慧模型管理和部署等。这些功能让OEM厂商能专注於开发真正提升他们互联产品的功能和应用。

    安富利在今年2月推出以AWS为基础的第一版IoTConnect平台,第二版将帮助IoT解决方案的OEM厂商能更有效率地设计产品。安富利的IoTConnect平台旨在无缝连接设备并从收集到的数据中获取重要参考指标,以作出更好的业务决策。这个全面性的平台即服务(PaaS)允许设备通讯和管理,数据储存,应用程式创建,和启用强大的安全协议。

    安富利的IoTConnect平台可以解决云端连接解决方案的挑战,例如扩充性、可靠性、维护和安全性,让OEM厂商能更快速且成功地将产品推向市场。

    安富利物联网副总裁Lou Lutostanski表示,以AWS为基础的IoTConnect第二版,针对OEM厂商的需求大幅拓展了设计、建构、部署和管理云端连接设备、应用,和解决方案的功能。为了进一步减少OEM厂商的开发时间,安富利还与微控制器厂商合作,将其硬体解决方案预先连接到IoTConnect。…

    openvpn官网地址

    IBM计画在Watsonx.AI平台提供Meta的Llama 2模型

    IBM宣布在其人工智慧开发平台Watsonx.AI提供Llama 2模型,使企业能够简单地取用Llama 2模型,训练专属模型用於开发自家人工智慧应用。Watsonx.AI是Watsonx平台的一部分,可让企业简单地训练、验证、调校和部署人工智慧模型,该平台包括预先打包的人工智慧模型目录,还有可用於模型训练的资料集。 Llama 2是Meta在7月甫对外释出的大型语言模型,相较於今年2月Meta发表,仅开发给人工智慧研究社群申请使用的Llama 1,Llama 2采用一种称为Llama 2的授权,虽然并非典型的开源授权,但是只要企业产品和服务不超过7亿活跃使用者,都可以自由地用於研究和商业目的。

    Llama 2预训练模型总共使用2兆Token训练,具有处理长上下文内容的能力,而经调校的指令遵循模型Llama 2-Chat,其可用性已经与ChatGPT相当。Llama 2模型有三个大小的版本,分别为70亿、130亿和700亿参数的模型,IBM在Watsonx.AI平台中托管的则是Llama 2-chat 700亿参数模型版本。

    IBM在Watsonx.AI中提供Llama 2模型,是延续过去与Meta在多个开源专案合作的基础,之前的合作包括PyTorch机器学习框架,以及在watsonx.data中使用Presto查询引擎等。IBM提到,他们目前的人工智慧战略,是向用户提供第三方和自家的模型。因此在Watsonx.AI中,用户可以使用到IBM和Hugging Face社群的模型,解决各种自然语言处理任务。

    除了整合Llama 2之外,IBM也揭露接下来的生成式人工智慧路线图,之後将会发布AI Tuning Studio,继续在Watsonx.AI加入其他人工智慧模型,并且在生成式智慧工具整合FactSheets资料治理服务。…