openvpn官网地址

openvpn官网地址

AWS更新程式开发辅助服务CodeWhisperer,现可侦测并协助修复已知程式码漏洞

AWS现在正式推出程式开发辅助服务CodeWhisperer,该服务在去年6月释出预览版,经过一年多的改进加入多项新功能,像是提供发现和修复程式码漏洞的能力,还新增了基础设施即程式码(Infrastructure as Code,IaC)支援,并且预览Visual Studio整合功能。

CodeWhisperer是一个以机器学习技术为核心,并且利用开源储存库、Amazon自有储存库、API文件和论坛数十亿行程式码训练而成的程式开发辅助服务。CodeWhisperer会根据程式码和注解,依据开发者的程式编写风格和变数名称,提供程式码建议。CodeWhisperer预览版支援的语言有Python、Java、JavaScript,开发者可选择在熟悉的各种IDE上使用。

预览版CodeWhisperer透过内建的安全扫描功能,能发现诸如暴露的凭证和日志注入等问题,而AWS现在释出的正式版CodeWhisperer加入漏洞缓解功能,进一步使用生成式人工智慧来产生程式码建议,协助开发者修复已知的安全性和程式码品质问题。

在发现漏洞之後,CodeWhisperer便会根据用户的程式码,提供专属修复建议,开发者可以接受建议,快速修复该漏洞。目前新版中的安全扫描功能,除了之前的Java、Python、JavaScript,现在还新增支援TypeScript、C#、AWS CloudFormation、AWS CDK和HashiCorp Terraform,而漏洞缓解功能则是针对Java、Python和JavaScript程式码漏洞提供修复建议。

CodeWhisperer现在也支援基础设施即程式码,强化开发者脚本编写效率,开发者可将其用於AWS CloudFormation、AWS CDK和HashiCorp Terraform工具,以编写基础设施程式码,官方提到,由於CodeWhisperer支援多种基础设施即程式码语言,因此可以促进不同团队间的协作和一致性。

开发者现在已经可以於Visual Studio 2022中使用CodeWhisperer,获取C#即时程式码建议。此外,新版本也让开发者可以更负责任地编写程式码,供开发者注记可能由公开可用程式码组合而成的程式码段落,并提供类似程式码的储存库URL和授权资讯(下图)。

CodeWhisperer最近的更新也针对Git、npm、AWS CLI和Docker等命令列介面工具,添加即时程式码自动完成和内嵌文件(Inline Documentation)。CodeWhisperer也已经可以将自然语言翻译成壳层程式码,以更直觉地方式使用操作命令列工具。…

openvpn官网地址

2024 AI Junior Award 起跑 以 AI 弭平落差

生成式 AI 现正热映中,自 2022 年底 ChatGPT 发表,为我们的日常生活、工作创造各种可能性,上千种 AI 工具出现,大幅降低AI应用的门槛。愈来愈多人开始思考,除了帮助工作效率提升,生成式 AI 还可以如何为社会与环境产生正面影响?是否可以用它来消弭长期存在的各种落差?

为了探索可能性,由人工智慧科技基金会主办的 AI Junior Award 2024 以「弭平落差」为主题,邀请全台大专院校学生将创意转换为可执行的 AI 解决方案,发挥改变世界的影响力。

为永续创造价值

AI 工具,让许多问题有解方,但是重点仍在於,想要用生成式 AI 创造什麽价值?员工超过 10 万人,客户遍布 30 个国家的顾问公司简柏特(Genpact)执行长泰格.泰格拉简(Tiger Tyagarajan)在《哈佛商业评论》中提到,人类的好奇心决定了这项工具可以创造什麽样的价值。他举例,ChatGPT 让印度偏乡农民取得政府文件,做出更好的决定,如申请补贴、订购种子肥料,也可以普及教育健康,造福数十亿人。

全球知名管理顾问公司麦肯锡观察,许多生成式 AI 和基础模型正被使用在社会公益领域,尤其是针对联合国的永续发展目标,包括健康和福祉、教育、工作未来、经济成长等。

以健康医疗为例,生成式 AI在加速新药开发、重构蛋白质折叠和预测等创新面向有巨大的潜力,可以支持世界上相对弱势的人群。另外,在劳动力发展层面,成式AI可以重新建构个人化的教育系统和技能提升计画,以因应不同语种和教育程度的需求。

发掘问题、定义问题,提出最佳解法

生成式 AI 可以带来的想象跟能力依然值得期待,技术更新的速度更像在飙车一样。但是对於创新或是渴望弭平落差的时候,技术是否是最重要的?尤其,当我们希望解决的问题跟「人」相关的时候,不只具有高度复杂性,而且互相连动不断改变。若只看到表层现象,没有深入了解真正问题的根源,即使有再好的技术或解决方案也只是隔靴搔痒,甚至徒劳无功。

特别在生成式 …

openvpn官网地址

Deepmind开发Lyria音乐生成模型,探索音乐创作新范式

Deepmind发表了一个称之为Lyria的先进音乐生成模型,可以生成带有乐器和人声的高品质音乐。Deepmind透过与YouTube合作,整合Lyria模型开发了音乐创作工具Dream Track,要供YouTube创作者更有效率地将创意转换成作品。

研究人员解释了当前人工智慧模型生成音乐的挑战,在於音乐本身包含极高的资讯密度,其中每一秒钟都可能拥有多个节拍、音符和和声。而这使得音乐相较与语言更为复杂,对人工智慧模型来说,维持长时间音乐序列中的连续性特别困难,因为模型需要在不同的乐句、诗节和长段落中,保持音乐的流畅性和一致性。

另外,因为音乐经常同时包含多个声部和乐器,也进一步增加了音乐生成的难度,因为模型需要协调多种声音和旋律,使其能和谐地结合。

而Deepmind所开发的Lyria人工智慧模型的特点在於生成高品质音乐,并包含乐器和人声的部分。Lyria模型擅长执行音乐变换和延续的任务,因此可以根据现有音乐片段创造出新颖,或是与原始风格一致的续篇。研究人员也强调,Lyria模型拥有细致的控制选项,可让用户精确制定生成音乐风格和表现方式。这些功能让Lyria模型能够成为强大的音乐创作工具,满足专业音乐创作的需求,同时也可供一般用户简单上手。

YouTube也开始在短影片功能Shorts上实验音乐创作工具Dream Track,探索Lyria模型带来的效益。在这实验中,创作者将使用Dream Track,透过运用Lyria模型生成独特的配乐,配乐将结合由人工智慧合成的声音,并且可选用Charlie Puth、Charli XCX或Sia等多位YouTube合作艺术家的音乐风格。

Dream Track还可以透过简单地输入主题,让用户从轮播中选出一位艺术家,替短影片生成30秒的配乐。由於Lyria模型的强大能力,因此Dream Track可以同时生成歌词、伴奏,以及该艺术家的声音风格。

透过与更多的艺术家、作曲家和制作人合作,Deepmind正广泛地探索,音乐创作领域的人工智慧应用,像是用户只要哼唱,人工智慧就会把旋律转换成为管乐,或是将MIDI的和弦转换成逼真的合唱声部,甚至是将声乐音轨添加乐器伴奏。

特别的是,Lyria模型生成的所有内容,都会加上SynthID浮水印标记。SynthID原本是一种用於辨识Google云端Vertex AI上Imagen生成图像的技术,SynthID能够在不影响听觉体验的前提下,在人工智慧生成的音讯内容中,嵌入听众无法察觉的声音标记。研究人员提到,这种声音浮水印即便在经过添加噪音、MP3压缩甚至加快和减慢曲目速度等常见的修改,都能够维持可检测性,Lyria模型也可以透过侦测歌曲中的SynthID,来确认歌曲中由Lyria模型生成的部分。…

openvpn官网地址

PC 产业 5 月触底,宏碁陈俊圣:AI 刺激新一波 PC 市场需求

宏碁重新定义集团业务范围,从个人电脑拓展至电脑科学,再从电脑科学延伸至日常生活,在不同领域拥有各种业务,不限於 PC 和电竞。

宏碁董事长陈俊圣接受美国 Yahoo 财经越洋专访表示,宏碁在明年创新要务有三大主要方向:第一,希望成为 ESG 永续发展的良好企业典范,例如宏碁正尽最大努力将再生材质融入电脑相关产品制程,家用电器也是如此。第二,确保提升企业韧性,包括引进集团公司的网路安全服务,同时建构多元事业引擎。第三,利用 AI 在医疗和健康领域能充分发挥效应。

人们和电脑互动方式将因 AI 产生重大变化,尤其使用电脑的模式从「搜寻」转变为「提问」。传统「搜寻」结果带来太多资讯,未来向 AI「提问」,电脑系统会迅速执行搜寻、提取你需要的内容,再组成符合需求的一篇文章或图表,这对 CPU、GPU 运算能力会达到更高程度,将会刺激新一波市场需求。

无论 AI 如何牵动硬体和软体发展,陈俊圣认为重点仍在於人们使用模式的改变,以及需要什麽样的使用模式。宏碁正与数十家客户合作,建立各项专案和 POC(Proof of Concept,概念性验证),充分利用生成式 AI 技术,再者,客户需要决定采取云端还是边缘运算,宏碁也会提出设备和软体,最後才会考虑需要使用哪种晶片,整个产业价值链和供应链都因此有所改变。

在推动明年新品上,陈俊圣透露宏碁准备一系列硬体和软体的解决方案,硬体包括 AI 伺服器、AI PC,软体如有电脑科学相关的 AI 医学影像诊断及筛检工具,并引进生成式 AI 到公部门和私部门。

当 Brian Sozzi 问道是否担心 AI 发展过快,没有适当防护措施时,陈俊圣不同意这种看法,反而认为 AI 已经存在数十年,今年更有生成式 …

openvpn官网地址

十月惊奇,五家人工智慧新创顺利募得大额资金|专家论点【Howie Su】 – 专家论点 – TechNice科技岛-掌握科技与行销最新动态

作者:Howie Su(产业分析师)

新创今年特别难熬,尤其在市场拓展与募资方面,投资人因总体环境不佳保持观望,连带使得许多业者成长迟缓,不过十月可以说是一个例外,尽管创投市场持续低迷,十月还是出现了许多大额融资,不过这些公司几乎清一色都是美国业者,对比到美国经济成长依旧强劲,确实有可圈可点之处,让我们来看看哪些公司可能成为明年成长的主角。

一、Metropolis

Metropolis是一家专门将电脑视觉应用到停车技术的新创,公司在Eldridge和3L Capital的带领下筹资17 亿美元,Metropolis 开发一种电脑视觉系统,使驾驶员无需使用信用卡甚至现金即可停车,司机疼够使用该应用程式并输入姓名和付款方式等资讯,公司随後追踪汽车并向车主收费,它甚至可以在他们离开停车场时透过电子邮件发送收据,这在车水马龙的城市,例如旧金山与纽约中,对於缓解停车造成的塞车倒是解决不少司机没地方停车的窘境。

图、Metropolis的人工智慧停车方案颇受汽车驾驶欢迎。(资料来源:Metropolis)

二、Anthropic

总部位於旧金山的 Anthropic(ChatGPT 的竞争对手,其人工智慧助手 Claude)与亚马逊签署一项协议,让这家电子商务和云巨头向该领域投资高达40 亿美元。不过,Google早就跑进来凑热闹,2023年 2 月,Google已向这家新创公司投资了 3 亿至 4 亿美元,5月时Anthropic再筹资一次,由Spark Capital领投的4.5亿美元C轮融资,8 月,Anthropic从SK Telecom筹集 1 亿美元资金,现在的状况是,能与ChatGPT竞争的AI新创都能轻易获得大型企业投资。

三、Prins AI

除了上面的Anthropic外,一家名为Prins AI的人工智慧新创也在募资上取得进展,位於科罗拉多州的 Prins AI,从AAB V​​C 筹得 1 亿美元 B 轮融资,当然相较於Anthropic,Prins AI低调许多。Prins AI开发一种用於建立人工智慧数位身分的平台,可以代替人类进行行销,甚至执行媒体宣传工作,公司合作夥伴包括抖音与Google,该公司在包括中国在内的全球各地设有办事处,并计划利用新资金加强数位身分产品深度学习技术的研发。根据 …

openvpn官网地址

X公布AI聊天机器人Grok,强调比别人有幽默感,什麽问题都回答

原名推特的X正式加入了聊天机器人战局,上周宣布聊天机器人Grok开放美国用户试用,强调Grok的回应具有别的聊天机器人没有的幽默感,而且别人拒绝回答的问题,它也会回答。

X技术长暨幕後老板马斯克(Elon Musk)上周五公布Grok已经结束早期Beta测试,Grok未来会提供给月费16美元的X Premium Plus订阅户,且Grok将以内建在X App及独立App两种形式出现。

目前Grok提供美国地区部分用户测试。有兴趣的用户可先加入等候清单。

根据X介绍,Grok灵感来源是英国作家Douglas Adams的科幻小说《银河便车指南》(Hitchhike’s Guide to the Galaxy),企图回答所有问题,甚至提供建议。Grok相较其他模型的一大优势是可以从X平台存取即时资讯。此外,X作为聊天机器人的後进者,不只满足於提供精确资讯,而是在其回应中加入一点机智及不羁精神,强调带有幽默感。它甚至连大部分AI系统拒绝回答的辛辣问题也都会回答。

图片来源_Elon Musk via X

这也是马斯克年初签署一份宣言,呼吁OpenAI等业者暂停开发进阶AI语言模型,及7月宣布旗下AI公司xAI後,这位科技大亨对AI的投入成果。

Grok底层大型语言模型Grok-1,是xAI团队四个月训练的结果。xAI 7月问世後,团队就训练330亿个参数的原型LLM Grok-0,强调仅用了Meta LLaMA 2一半的训练资源就达到其能力。9月份xAI就完成了Grok-1的训练,它在标竿测试HumanEval编程任务及MMLU中,分别达到63.2%及73%。

X引用GSM8k、MML、HumanEval、MATH的四项标竿测试数据,显示Grok-1表现都超越OpenAI的GPT-3.5,及Inflection-1,4项测试都比它优异的只有训练资料及资源都大得多的GPT-4。不过Google Palm2及Anthropic Claude 2也都在3个项目中超越Grok-1。

X强调Grok-1训练过程以明确而可验证的情境来发展理解力,以确保AI模型的安全性、稳定性,现在也具理解上下文(context)能力以提供相关答案,不过目前只支援文字输入/输入。团队目前正在强化Grok-1应需求发现及检索资讯、防止恶意滥用的能力,以及视觉及声音输出/输入的支援能力。X公司说新功能会於未来几个月内陆续公布。…

openvpn官网地址

微软准备推自研人工智慧晶片,减少对辉达依赖并降低营运成本

据外媒报导,在当前人工智慧应用市场依旧火红的当下,一位市场人士透露,微软计画下个月推出首款人工智慧 (AI) 晶片。这款晶片代号为 Athena,是为训练和执行大型语言模型的资料中心伺服器所设计的。市场预计,该晶片将与 GPU 大厂辉达 (NVIDIA) 的旗舰型产品 H100 GPU 竞争,未来也有助於微软减少对辉达设计的 GPU 的依赖。

报导指出,现阶段辉达在人工智慧各领域都处於领先的地位。尤其,辉达在人工智慧晶片市场上占比大约达到 80% 的情况。而辉达旗下的高阶人工智慧晶片当前都已被用於训练,和执行各种生成式人工智慧应用。然而,微软才是生成式人工智慧领域的早期发俺者,这要归功於它对 OpenAI 的投资,藉由这一层关系的整合,OpenAI 所研发的生成式人工智慧应用 ChatGPT 当前在市场上大受欢迎。

据了解,微软在其生成式人工智慧服务中使用了辉达的晶片。然而,辉达当前的高阶资料中心晶片不仅供不应求,而且价格昂贵。先前外媒也曾经报导,转向内部开发的人工智慧晶片将提高微软在该市场上的地位,并将消除对辉达晶片的依赖,也可能使得人工智慧应用的相关营运成本降低。

报导强调,2023 年 5 月初,市场人士就透露,晶片厂商 AMD 预计将与微软合作开发人工智慧晶片。在与 AMD 合作的同时,微软也打算继续与辉达密切合作,试图从辉达方面获得更多的晶片。另外,除了 AMD 和辉达之外,微软也正与 OpenAI 在多个领域进行合作,其中包括在其新版 Bing 中使用 OpenAI 的技术。

(首图来源:pixabay)…

openvpn官网地址

Meta新开源模型Llama 2 Long整体长文处理效能超越GPT-3.5 Turbo

Meta默默发表了新的语言模型研究论文〈Effective Long-Context Scaling of Foundation Models〉,这篇论文讲述关於处理长文本,最高可达到32,768个token的模型Llama 2 Long。这个模型表现良好,经过广泛的基准测试评估,在长上下文任务方面,Llama 2 Long明显优於之前发表的语言模型LLAMA 2,而在700亿参数的版本,不需要人工注释的长指令资料,表现就能优於gpt-3.5-turbo-16k模型整体能力。

语言模型逐渐改变人们与数位世界互动的方式,随着语言模型的部署和规模化,发展出越来越复杂且多样化的用例,但是要能支援更复杂的用例,模型势必需要更有效地处理长上下文输入。

不过,目前开源长上下文的模型仍然能力不足,在评估中表现不佳,而且这些模型通常是使用语言模型损失以及合成任务方法来评估效能,但这些方法无法完全展现模型在多样化、真实世界场景的能力,特别是在处理密集、知识丰富的文件,以及聊天机器人或是程式开发等应用。

用户想要使用强大的长上下文能力,通常还是只能使用Anthropic和OpenAI的大型语言模型API来实现,整体来说,目前缺乏与商业模型可相提并论的开源模型。

而Meta这篇论文的的主要贡献,便是训练出了能够在长上下文任务有良好表现的开源模型Llama 2 Long。研究人员把LLAMA 2当作基础,额外以4,000亿个token进行持续预训练,这些token被切割成许多较小的序列,来训练各种模型变体,像是70亿与130亿参数的模型变体,便使用长度32,768个token的序列进行训练,而340亿与700亿参数的模型变体,则使用使用长度为16,384个token的序列进行训练。

Meta的研究人员以更广泛的方法来评估Llama 2 Long,包括语言建模、合成任务和广泛的实际基准测试,这些测试可以涵盖长短上下文任务。在语言建模方法,他们发现Llama 2 Long存在明确与上下文长度有关的幂定律缩放行为(Power-Law Scaling Behavior),也就是说上下文长度增加时,模型的效能也会按照固定比例增加。这代表提供更多的文本资讯时,模型也会表现得更好,因此模型能够利用更多的文本资讯,做出更准确的预测。另外,幂定律缩放行为也说明,上下文长度是缩放语言模型的另一个重要的要素。

与Llama 2相比,Llama 2 Long除了在长上下文任务能力有明显的进步外,在标准短上下文任务,例如程式开发、数学和知识基准,也都有一定程度的改进。研究人员提到,他们发现一个简单且成本效益高的方法,不需要人工注释资料,就能微调持续预训练的长模型成聊天模型,在问答、摘要和多文件聚合任务的长上下文基准测试上,整体效能超越gpt-3.5-turbo-16k。

Meta研究人员继续Llama 2语言模型的发展,利用额外4,000亿个token进行训练,并在短、长任务超越Llama 2表现,而且相较於现有的开源长上下文模型,以及gpt-3.5-turbo-16k模型,Llama 2 Long在经过简单指令微调後,已经可以表现出良好的效能。…