大数据

openvpn注册教程

智慧医疗应用吹起新一波资料结构化需求

「结构化病历」是这2年许多医院CIO常常提起的热门关键字。因为AI技术的出现,催生不少智慧医疗应用,医院也体会到智慧医院的可能性。但要进一步扩大应用时,医院才发现许多关键资讯,还藏在原本的文字叙述病历中。为了扩大规模、发展更深层的智慧医疗应用,他们得要从这些病历中,抽取出新的病历资讯才行,因此掀起了新一波医疗资料结构化需求。

病历资料来源广泛,文字类病历是结构化重点

对医院来说,病历结构化一直是项大工程。因为,病历资料很多种,涵盖层面广泛,包括检验报告、检查报告、生理资讯、个人健康资讯、个人健康习惯、过去就医历程与记录,还有药物资讯等。这些病历记录内容,又可分为医学影像、影音、数值和文字资讯,其中,文字资讯还可细分为表格表单和描述性资料两种架构。

不只资料本身多样,这些病历还牵连不少重要的医疗资讯系统,从常见的门诊、住院、急诊和医嘱系统,到更专精的生化病历检验报告系统、生理资讯系统、各临床科别检查系统和药物管理系统,以及麻醉、手术、护理、病理、营养、个案管理和处理医学影像的影像储传系统(PACS)等都在影响范围内。

在这之中,生化检验和生理数据等病历资料,是结构化技术门槛最低的种类。因为,这类资料因健保申报制度,早年就已数位化和自动化,大多采结构化架构,因此结构化门槛低。但描述性的文字报告病历,过去以来并非以结构化方式记录,因此成为许多医院推动结构化的目标。

病历结构化不只益於临床应用,对IT也有好处

虽然病历资料多样复杂,但对医院而言,病历结构化可带来不同的帮助。

振兴医院心脏医学中心心脏血管内科主治医师暨资讯室主任陈冠群就点出,病历结构化可系统性地规范、定义和归类临床资讯,这些结构化数据,能简化後续分析应用成本,尤其是资料清洗,减少了AI应用开发所需的人力和时间。

对临床第一线人员来说,结构化的病历资料,可用来统计、追踪、计算、标注和可视化呈现特定的趋势,有助於跨职类人员的沟通协作,还能更即时处理临床业务。感染控制、特定病患的筛选与管理,以及医疗品质的目标设定、追踪和预警都是应用的一种。

而且,结构化的病历资料,还能加速临床照护仪表板的设计。这类仪表板可用来侦测异常数值、发出预警通知,让医护人员适时介入治疗。这些是病历结构化对临床面的好处。

对医院IT来说,病历结构化也有帮助。因为,资料在源头透过表单式结构化处理,可简化IT人员後续资料捞取上的繁琐工作,节省原本许多需要写程式执行的资料分析流程。

为何推动病历结构化不容易

资料结构化的方法有好几种,最常见的是采用表单式工具,在资料输入源头,就先以表单式的结构化规格储存。还有一种方法是使用资料湖工具,就算原始资料非结构化,也能储存,并在输出时,透过程式转换为结构化资讯。

在台湾,大多数医院病历结构化的主流做法是导入表单工具,来让医事人员以表单格式填写病历资料。但,这个做法要让第一线使用者买单,还不容易。

因为,要将病历中原本自由书写的描述性文字栏位,改为表单式,光是在表单设计过程,就需要临床人员额外花时间,配合找出需要结构化的关键资讯。这个额外工作,很容易引起临床人员反弹。再来,改采表单式栏位,会打破医师使用者书写病历的习惯。因为,医师得要将原本流畅书写的一句话,拆分成好几个部分,来进行个别记录或归类,甚至还要选取关键字。这种作法,容易中断医师思绪,而且在资料阅读上,也未必友善。

对医院IT而言,如何根据已知需求和未来可能需要的未知需求,来正确地将病历资料结构化,也是一大挑战。

有效推动病历结构化还有几种方法

因此,如何兼顾临床使用者需求和结构化资料收集目的,成为医院推动资料结构化的重要课题。

除了在组织上,成立由临床人员和医院IT组成的推动小组,台大医院病历资讯室主任庄秋华认为,团队得先聚焦病历结构化的临床目的,也就是找出临床痛点,接着凝聚医疗专业共识,找出需要结构化且适合用於表单形式的资料栏位。因为,病历结构化虽是辅助资料收集的好帮手,但不代表所有病历资料都适合用结构化方式来解决临床问题。

有了共识,再来就是设计表单,将共识转换为病历格式,并搭配临床作业流程来设计。完成後,就能交给IT来建置或修改病历系统表单程式。由於表单式纪录会影响原本医师对病人病况的观察记录,若全面改为表单栏位,不只会改变医师书写习惯,也难以完整呈现病人病况。但若为追求完整性,导致表单上需要输入的栏位过多,也会带给第一线医护困扰。因此,她提醒,医院设计结构化病历表单时,需兼顾实用性,要能充分反映病人状况,可采取部分结构化,部分自由书写的形式。

此外,还有一种病历结构化解法是导入表单设计工具,让临床人员自助式设计表单。推动长庚体系医院病历结构化的林口长庚纪念医院核子医学部主治医师林昆儒就分享,他们自2015年开始筹画病历结构化,当时考量,若由IT部门根据临床需求、一一设计上百张表单,太耗工费时,因此决定导入低程式码表单编辑器,来让临床单位自行设计符合病历审查条件的表单。

後来,为兼顾医师书写习惯,他们改良这套工具,改采主表单和子表单两层式设计,让医师可在主表单自由书写病历记录,另透过快捷键或点选,快速调用结构化的子表单,来进行更细致的辅助记录。完成後,系统会自动生成子表单的内容摘要,回馈到主表单上,其他结构化资料则会传送至资料仓储,以便後续应用。这就是兼顾临床使用者需求和结构化资料收集的一种作法。

一样是先锁定要解决的临床痛点,振兴医院对如何找出最关键、最值得优先投入结构化的资料,还有另一种切入角度。比如可先衡量数据的临床价值,结构化後,能否用来强化照护、提高诊断品质或优化医疗流程,另也可思考数据的多样性,也就是同一批结构化数据,能否发展更多种类的应用、在多个科别中使用。其他还有数据的真实性,也就是找出明确、不必再後续处理或判断的数据,更不能是意义模糊的数据结构。

数据结构化所衍生的资料储存成本也很重要,若数据产量很大,就得考量储存方式的开销。此外,医院也需思考,结构化数据是否来源多处,比如要解决一个临床题目,可能需要好几种不同来源的数据,要是数据取得难度高,结构化就会很辛苦。

LLM也许是另一种资料分析选择

病历资料结构化并非推动智慧医疗应用的唯一选择。尤其,这2年以大型语言模型(LLM)为基础的生成式AI崛起,可用模型和工具也越来越普及,LLM强大的文字阅读和分析能力,能快速消化非结构化的长篇文字内容,还能根据使用者指令,来解析、摘要特定内容。

这让医院开始思考,LLM是否意味着,医院可用来分析非结构化的病历文字内容?甚至是,病历资料是否不必结构化,就能靠LLM分析、解答?这是许多医院正在探究的议题。

 相关报导 …

openvpn官网地址

Google新框架ASPIRE有效让AI自我评估输出对错

Google公开专为大型语言模型设计的ASPIRE框架,该框架可以强化语言模型的选择性预测(Selective Prediction)能力。透过对问答任务的大型语言模型进行参数微调,以评估所生成答案的正确性,ASPIRE框架在各种问答资料集上,表现优於目前最先进的选择性预测方法。ASPIRE框架的重要性在於能够增加大型语言模型的可信程度,让人工智慧可在关键应用发挥作用。

大型语言模型在自然语言理解和生成领域发展迅速,已经被用於建立各种创新应用,但是要进入高风险决策应用,仍有障碍待解决。研究人员指出,由於模型预测具有不确定性,大型语言模型缺乏评估回应可信度的机制,就算可以透过总结序列中各个Token的可信分数加总,但是仍无法可靠地辨别正确或是错误答案。

而选择性预测是这个问题的解决方案,大型语言模型输出答案时加上选择分数,而这个分数能指出答案正确的机率,因此藉由选择性预测更可以了解在各种应用中部署大型语言模型的可靠性。过去像是语义不确定性和自我评估等研究,试图在大型语言模型中实现选择性预测,不过,传统方法采用启发式提示,试图藉由「建议的答案是对还是错?」等问题,触发大型语言模型的自我评估,但是这种方法不适用於具有挑战性的问答任务。

Google研究人员发展出ASPIRE框架来解决这个问题。该框架有三个阶段,分别为特定任务调整、答案采样和自我评估学习。特定任务调整阶段是对已经受过基础训练的大型语言模型进行进阶训练,就像是让已经具有基本知识的学生进行进阶训练,专注於强化特定科目或是任务,研究人员透过添加新的可调参数,并使用高效的参数调校技术,在特定任务的训练资料集上微调预训练大型语言模型,以提高其预测效能,这个阶段相当於训练学生,使其更好地解决特定问题。

第二阶段则是答案采样,经过特定任务调整後,ASPIRE使用学习到的可调参数,对每个训练问题生成不同的答案,并创建用於自我评估学习的资料集,生成高可能性输出序列。也就是说,让学生尝试回答一系列问题,并产生不同的答案,藉由尝试不同答题方法,找出最可能正确的答案,研究人员使用一种称为集束搜寻(Beam Search)方法,协助学生选择最有可能的答案,并使用一种称为Rouge-L的演算法来评估答案的品质。

在最後的自我评估学习阶段,ASPIRE新添加一组可调节参数,专门用於提升模型自我评估的能力。该阶段的目标是要让模型学会自己判断答案准确性的能力。透过该训练,大型语言模型不仅能生成答案,还能够自己区分答案的正确性,在回答使用者问题时达到更好的可靠性和准确性。

研究人员验证ASPIRE的成果,使用CoQA、TriviaQA和SQuAD三个问答资料集,并使用各种开放预训练的Transformer模型来评估ASPIRE。经过ASPIRE调整的小型OPT-2.7B模型,表现超过更大的OPT-30B模型(下图)。这项实验结果表示,只要经过适当的调整,即便是较小的语言模型,在部分情境下也可以超越较大的语言模型。

值得注意的是,OPT-30B模型应用传统的自我评估方法Self-eval和P(True),选择性预测的效能并没有明显提高,反而是较小的OPT-2.7B模型在使用ASPIRE进行强化後,优於其他模型,也就是说,运用传统自我评估技术的较大型语言模型,选择性预测效果不如采用ASPIRE强化方法的小模型。

研究人员实验强调了ASPIRE对於大型语言模型的重要改变,语言模型的能力并非其表现的最终效能,透过调整策略就可以大幅提高模型有效性,即便是较小的模型,也可以进行准确且有自信的预测。…

openvpn官网地址

离通用AI更近了!Google DeepMind新AI媲美国际数学奥林匹克金牌的解题能力

Google DeepMind

Google DeepMind最近发表一款AI系统AlphaGeometry,使用1亿笔合成资料训练,就能在最新的30道国际数学奥林匹克(IMO)题目中,在规定时间内解出25道题。它不只比先前只解出10题的最佳AI还厉害,表现还接近人类金牌得主的平均值25.9道题,是迈向通用AI的一大里程碑。这项研究成果,日前也登上《Nature》期刊。

最先进的AI系统解几何学难题,仍是个挑战

为何AI解几何学题目很重要?

因为,几何学是数学最古老、最基础的分支之一,也是电脑科学、建筑、艺术、工程、天文等领域的重要工具。就电脑科学来说,几何学因涉及空间属性,例如距离、形状、大小和相对位置等,是重要的处理工具,尤其能用来设计和分析演算法,执行常见的AI任务,如图像处理、电脑视觉和动作规画等。

几何学也是国际数学奥林匹克竞赛的重要课题。这个竞赛旨在测验逻辑推理和发现新知识的能力,每年吸引全球各地优秀的高中生,来挑战数学难题。

然而,就算是目前最先进的AI系统,都还难以证明数学猜想(Conjecture)的真伪。AI界普遍认为,能证明数学定理,是发展通用AI(即AGI)的关键一步,但它有个大挑战:训练资料的缺乏。因为,专为AI建立数学证明资料,既困难又昂贵,AI专家们很难收集到足够的训练资料,来打造AI解题模型。

根据IMO规则生成1亿笔训练资料,最终解出25道题

为解决这个挑战,Google DeepMind研究团队Trieu Trinh和Thang Luong先是根据IMO规则,生成了1亿个不同复杂度的数学定理和证明,并用这些合成的训练资料,从头训练出一套AI系统AlphaGeometry。在这个过程中,完全没使用人工范例。

而在架构上,它是一套神经符号(Neuro-symbolic)系统,采混合式架构,由神经语言模型(NLL)和符号推论引擎(Symbolic deduction engine)2大部分组成。

其中,神经语言模型扮演引导角色,来指导符号推论引擎,如何在IMO等级的问题中,从几何构造的无限可能中找出解决方案(如下图)。这是因为,IMO几何问题以图形呈现,需要添加新的几何结构(如点、线、面)才能解题,而AlphaGeometry的语言模型,可以从无数个可能性中,预测出添加哪些新结构最有用。这些线索,能帮助符号引擎进一步推导图形,找出最接近的解答。

AlphaGeometry也成功在最新的IMO竞赛中,在规定时间内解出25道题(共30题),能力与世界上最聪明的高中数学生相当,媲美历届金牌的平均成绩25.9道题。

Google认为,这个成功,不只是数学推理上的突破,还能运用到更广泛的科学领域问题。而且,AlphaGeometry解决专家级的复杂数学问题,未来还能帮助人类更理解世界运作的过程。…

openvpn官网地址

福斯汽车将让ChatGPT成为众多车款的标配

福斯汽车

福斯汽车(Volkswagen)本周宣布,将透过汽车AI助理解决方案供应商Cerence的Cerence Chat Pro服务,让ChatGPT进驻具备福斯IDA语音助理的众多车款中,在今年第二季让ChatGPT成为相关车款的标准配备。

Cerence专注於汽车领域的各种AI解决方案,其中的一项应用就是整合了ChatGPT的Cerence Chat Pro,甫於今年1月初宣布与微软结盟,让汽车品牌可透过Microsoft Azure OpenAI存取ChatGPT模型。

而根据福斯的规画,未来包括ID.7、ID.4、ID.5、ID.3、Tiguan、Passat及Golf等具备IDA语音助理的车款,都会藉由整合Cerence Chat Pro来提供ChatGPT服务。

由福斯开发的IDA语音助理原本就可透过语音来控制车上的资讯娱乐系统、导航、空调或回答常识问题,而ChatGPT则能扩大其能力,以更直觉的方式创造更丰富的对话,回答更复杂的问题,还能接受特定车辆的资讯。

福斯说明,车主不必建立新的帐号,也无需安装新程式,亦不用特别启动ChatGPT,在说出Hello IDA或按下方向盘上的按键以启用Hello IDA之後,会先由IDA执行各项功能,遇到无法回答的问题再匿名转送给AI,再由IDA负责回应。ChatGPT并不能存取车辆资料,且所有的问题与答案都会立刻删除。…

openvpn注册教程

抢救 IT 失传技艺,亚马逊技术长倡议节约架构 (Part 1 设计篇)

Amazon

在云端运算服务尚未问市之前,评估资讯系统的成本效益是资讯人员必备能力,身为全球最大电商亚马逊(Amazon)技术长的Werner Vogels说:「在当时采购资料库这类大型系统,都得先评估足以使用五年的规格,才能达到最佳成本效益。」然而,在云端运算资源垂手可得的今日,虽然传统硬体的限制越来越少了,软体开发人员可以更聚焦在功能创新与更快推出上市,但也因此忽略成本效益的重要性,Vogels指出,重视成本效益几乎已成失传的技艺,为此他在re:Invent 2023的主题演讲提出「节约架构(Frugal Architect)」设计法则,呼吁将成本意识纳入软体架构设计,进而达成永续目标。

节约架构可谓亚马逊过去二十多年软体开发经验的总和,特别是打造具有成本意识与永续发展的系统架构,Vogels回忆道,「在还很难买得到PlayStation的年代,只要有人贴文说亚马逊明天会开卖,许多消费者就会在开卖前五分钟开始狂按电脑的F5按键更新网页,以在第一时间读取到贩售网页,不过这也导致网站流量瞬间爆增。」然而,当时可没有调度自如的云端运算资源可用,因此考验着资讯人员如何有创意地解决刺手问题。

还有一次,在黑色星期五购物节来临前,亚马逊的业务团队兴高采烈地提出许多可冲高业绩的新点子,接着就轮到技术团队苦恼如何在既有系统架构与有限资源下达成业务目标。不过Vogels指出,过往资讯人员就是因为突破种种硬体上的限制而练就一身技艺,然而随着云端运算普及,在限制越来越少的情况下,这些技艺也逐渐失传。

Vogels提出的节约架构由三大类、七项软体架构设计法则所组成,他表示,之所以称之为法则,代表是过往诸多经验的心得,并非硬性规定;而区分成「设计(Design)」「量测(Measure)」与「最佳化(Optimize)」三个部分,则有助於形成框架式的思考架构。

第一项法则是将成本纳入非功能性(Non-functional)需求。传统上非功能性需求包含资安(Security)、法规遵循(Compliance)、无障碍设计(Accessibility)、效能(Performance)、可用性(Availability)、扩充性(Scalability)与可维护性(Maintainability)等项目,Vogels指出,在过去资安、法遵与无障碍设计是无法妥协的三个项目,然而现在光这三项并不足够,还需要纳入成本(Cost)与永续性(Sustainability),成为必要的非功能性需求。

以Amaozn设计S3物件储存服务的经验为例,Vogels指出,由於云端运算服务必须提供明确的价格,因此必须先分析运算成本,以订定合理计价模式。一开始他们认为S3储存服务的成本不外乎传输档案与储存档案,然而,在先期客户试用S3的过程中,他们才发现之前忽略了使用者读取(Request)物件资料其实也会有相对应的成本。

上述经验随後也运用在DynamoDB无伺服器资料库服务,由於此服务提供两种读取一致性(Consistency)选项,包括最终一致读取(Eventually Consistency)与强烈一致读取(Strong Consistency),而由於强烈一致读取的读取次数是最终一致读取的2倍,因此计价也就必须多一倍才合理。

成本考量必需落实在系统设计的每一个环节,Vogels说:「我们开发软体,终究是为了帮公司获利,而不是展现自己的技能。」因此,除了考量软体架构必要的功能性、扩充性与稳定性,还要评估软体成本对公司获利的影响。在设计软体系统架构前,必须先确定营收模式,并确保系统的设计能够支持获利,他说:「系统架构设计一定要跟着公司获利的方向发展,如果不幸走反了,最终你一定会完蛋。」这也就是节约架构的第二项法则:「系统成本必须与公司获利保持一致。」

AWS知名的无伺服器运算服务Lambda,其实背後也有一段鲜为人知的成本与架构重构的故事。在S3、DynamoDB等物件储存与资料库无伺服器化服务陆续推出之後,AWS的客户开始期待运算服务也可以无伺服器化,好摆脱繁重的伺服器管理工作。Vogels表示,因为之前有设计S3物件储存服务的经验,在订价方面他们很快确定无伺服器运算服务需从两个面向计价:每微秒的处理器运算量,以及记忆体使用量,在功能方面也确定必须兼顾安全性、强化隔离与成本效益等三项非功能性需求,但是接下来他们却察觉缺乏足够的技术,以达成上述三项必备的非功能性需求。

眼看推出无伺服器运算服务势在必行,但在缺乏相对应技术,以致於无法兼具成本效益的情况下,Vogels说:「所以我们一开始就先确定了,在成本效益上得有所牺牲……而未来一定得为此付出相对应的技术债与经济债。」於是,他们成立了两个团队,第一个团队先在既有技术下动手开发,第二个团队则负责开发无伺服器运算服务所需要的关键技术。

为了确保无伺服器运算服务的每一个用户程式码都有安全隔离,第一个团队选择将每一个Lambda服务以EC2最小规格的T2执行个体来运行,然而,由於Lambda函数程式码通常都很小,即便已经采用最小执行个体T2,但大多数的运算利用率都不到一半,也就是说AWS得多付出多一倍的运算成本来提供Lambda服务,而这也就是Vogels所说的,在决定开发的第一天就已经知道未来必须承担的经济债。

AWS在2014年推出Lambda後,事隔四年,第二个团队以Linux KVM为基础开发出微型虚拟机器Firecracker,让单一主机可以承载更多的Lambda服务,终於解决运算利用率的问题。Vogels指出,其实当初如果没有开发Firecracker,接下来的无伺服器容器运算服务Fargate也难以实现。

回首从Amazon S3至AWS Lambda的开发历程,Vogels打趣地说,这个过程就像一边开飞机还要一边换引擎,而且还不能让乘客察觉异状。这段经历也让他观察到节约架构的第三项法则:「架构设计是一连串的权衡与取舍」。他建议开发人员要打造可持续进化又不影响业务营运的架构,因为改变一定会发生。

继续阅读 → Part 2 节约架构量测篇


节约架构 Frugal Architect

设计

I. 成本是必要的非功能性需求
II. 系统成本必须与公司获利保持一致
III. 架构设计是一连串的权衡与取舍

量测

IV. 无法量测的系统必有隐藏的成本…

openvpn注册教程

品牌取得数据该如何运用?连结客户数据结合 AI,达到精准行销之效

因应市场竞争与消费行为的快速变化,以消费者为核心的营运思维更加重要,然而品牌辛苦取得的数据,究竟该如何使用?《未来商务》产业沙龙第 42 场以「数据新零售」为主题,邀请 3 位产业先行者——牧羊人集团暨汪喵星球营运长阮子铨、林三艺国际行销总经理林昌隆、大数据股份有限公司技术长孟令三,分享数据应用实例,供品牌在取得数据後,做最有效率的应用。

跨渠道分析数据,让视角更全面

牧羊人集团暨汪喵星球营运长阮子铨。

牧羊人集团旗下的汪喵星球是台湾知名宠物湿食品牌,致力於宠物食品与用品研发、制造、物流供应与跨境销售等服务,服务范围横跨港、澳、韩甚至是欧美国家,国内销售渠道则包含线上与线下,前者除了官方网站外,还包含多个电商平台,後者则有超过一万的实体通路点,包含宠物用品店、超商超市等。销售范围如此广阔,消费者的行为如何追踪、线下线上数据如何对接,以及前店後厂的模式数据如何串连,都成为牧羊人集团的难题。

「重点是数据重盘!」庞大的数据来源,需要有效管理,为此,牧羊人集团建立了数据中台,串接起库存与物流,并严密观察销售趋势,包含新客来源与旧客比例等,藉此也能进一步评估每笔行销资源的投入,阮子铨说:「从跨渠道的分析,我们能看到行销帮我们带人进来,但反过来对产品来说,也证明了我们对产品的坚持,让大家有愿意持续使用。」

除此之外,驱动汪喵星球在 OMO 经营下仍有高客户留存率的关键,则是「客服」。阮子铨分享,从消费者对品牌客服的反馈来看,藉由客服温馨的反馈,增加了黏着度且带进更多新客,因此产品、数据、服务,皆是零售品牌经营的关键。

数据交叉比对,找到最适合销售模式

林三艺国际行销总经理林昌隆。

以销售毛笔、毛料起家的林三益至今已是个拥有百年历史的品牌,作为品牌第四代的林昌隆说:「其实我们很久以前就有在使用『数据』,只是它存在人脑里。」过往掌柜会观察常客购买消耗品的频率,事先得知消费者进店的购物目标,而随着品牌不断壮大,或是碰上员工离职,经验值归零时,大家才开始意识到「数位化」管控数据的重要性。

从传统的毛笔转型贩售美妆刷具,林昌隆认为最首要的一步就是「认识自己」。「产品要卖给消费者 ,所以我要更详细的去了解,我的消费者需要什麽东西。」究竟自家商品的客群是谁?性别与年纪为何?必须先做出详细的分析,才能描绘出消费者轮廓,并针对个别产品去微调销售策略,如交叉比对直接买、加价购或组合购买等销售来源,找到最适合的模式,「藉由把对的商品放进加价购,成功带进了 29% 的业绩。」

除此之外,林三益也透过 LINE 串连线上与线下,开设彩妆教室,并设立匿名群组,供消费者免费谘询,增加品牌信任度,并进一步带动会员回访率提升。…

openvpn注册教程

Google开发交通模拟模型助加速大型活动後车辆离场

Google研究院与西雅图交通部合作,开发模拟交通引导计画,并将研究结果实际应用在道路交通上。在2023年8月和11月期间,双方在多个有数千名参加者的大型活动中进行实验,采用新的路由政策,并以动态讯息号志(Dynamic Message Signs,DMS)引导车辆,成功将离开体育场的平均车行时间降低7分钟。

研究人员指出,从体育场撤离人群的问题,从古罗马竞技场建立以来,一直到今天仍尚未找到有效的解决办法。而解决此一问题的现代方法是采用数位双生(Digital Twins),这项技术藉由在虚拟环境复制现实交通网路,重建每一个街道和十字路口的布局,甚至是所有车流量的细节,协助专家研究各种交通问题。

Google研究团队新开发针对西雅图体育场周边地区的交通模拟模型,藉由使用开源模拟软体SUMO(Simulation of Urban MObility),尽可能精确地重现特定时间的交通状况。SUMO的行为模型可以协助研究人员描述交通动态,像是跟车、变换车道和遵守限速等驾驶人做决策的方式。另外,研究团队还利用Google地图提供的资料,来定义网路结构和各种路段静态属性,诸如车道数、限速和交通号志等。

该模型的一个重要输入资料是车行需求。为了计算此一需求,研究团队需要将特定都市区域的道路网路划分为不同的区域,以这些区域为基础定义车行需求。所谓的车行需求,指得是在特定时间区间,从一个出发区域(Origin)到目标区域(Destination)的预期车行数量,简单来说就是特定时间内,有多少车辆要从A地前往B地,并以OD矩阵的形式表示。

研究人员透过汇集匿名车行统计资料,获得出发地区和目标区域之间的预期初始车行数量,结合初始车行需求和路段速度、车行时间和车辆数量等交通统计资料,来校准OD,以确实重现特定事件当时的情境。该模型对西雅图T-Mobile Park和Lumen Field周边多个活动进行交通模拟,采用匿名交通统计资料来评估准确性,以理解不同路由政策对该地区壅塞的影响。

西雅图警察局提供了最需要改进的拥挤路线,Google研究人员开发新的路由策略,使用模拟模型对其进行评估。要达到更快疏散交通的目的,新的政策将南北行交通从较近的闸道路口,路由到更远的高速功路闸道,以缩短等待时间。同时还尝试向活动交通流量开放高乘载车道(HOV Lane),以便更有效利用道路容量。同时也推荐驾驶人经由替代路线,或是不同车道之间共享负载,以便更快抵达体育场闸道。

研究人员对不同交通条件、活动时间和参加者人数的活动进行建模,并且模拟活动後车辆离开体育场抵达目的区域的时间。藉由计算政策实施前後的车行时间,来衡量每项政策的效益,在考虑可行性後,西雅图交通部在大型活动期间,使用动态讯息号志建议驾驶采取替代路线到达目的地,引导30%的车辆行经特定的路线和闸道,最终平均节省7分钟的车行时间。

这项研究的贡献在於展现模拟技术在交通规画和政策评估的应用潜力,透过模拟可使交通网路规画者了解利用率低的路段,并评估不同路由政策的效果,以实现更好的交通空间分布。…

openvpn注册教程

Fintech周报第226期:欧洲纯网银bunq推出生成式AI助理,能统整存户消费模式

2023/12/18~12/24金融科技精选新闻

 生成式AI   纯网银 

欧洲纯网银bunq推出生成式AI助理,能统整存户消费模式

欧洲第二大纯网银bunq近期推出生成式AI助理Finn,一个建置於App中的Chatbot,能回答帐户使用者的消费问题。使用者可以询问助理自己在特定种类的消费额,例如每个月平均在食物和日用品的花费,甚至是汇整使用者在特定平台的消费额,如一年在亚马逊的消费总额。

这个助理也能根据交易地点、时间回应问题,例如,回应使用者上周去过的地点,或是回应使用者过去在某个地点的消费额。不过,Finn仅能回应消费相关问题,不会提供投资建议。目前,这个助理正在测试阶段,使用者需要开户才能参与试用。bunq表示,目前他们在欧盟地区的用户数量已达1100万。

 金融检查   云端资安 

金管会发布113年金检重点,首度明列云端资安和虚拟资产平台业

因应今年八月金管会发布的新版上云规范,金检局今日公布113年金检重点,不仅将资安列为重点关注项目,也将云端业者资安纳入其中。检查局在各业别检查项目中新增跨境委外的定期查核,例如金融机构针对云端业者的资安和风险管控措施。

除了云端委外项目,金管会今年甫纳管的虚拟资产平台及交易业务事业(VASP),也被列为明年重点金检关注项目。金管会检查局主要针对业者的防制洗钱、打击资恐及反武器扩散的落实情形进行金检。

 澳洲央行   核心系统现代化 

澳洲央行明年将加强跨行资金移转及公债交割系统,更要展开核心系统现代化计画

澳洲央行近期发布一项招标案,揭露了明年的两项重大IT计画。一项是核心系统现代化,一项是加强跨行资金移转及公债交割系统(the Reserve Bank Information and Transfer System,RITS)。去年10月,澳洲央行的系统当机,全国长达五小时无法进行快速交割服务,以及小额结算和交割服务。澳洲央行当时表示,当机主因是管理虚拟伺服器的软体在更新时发生故障,进而让RITS系统无法传送或接收特定档案,也影响结算通知传送。

因应这项缺失,澳洲央行今年强调要加强支付系统的基础设施,更在今年1月开始对即时总额清算系统的营运环境进行全面审查。审查结果的建议中包括,以自动化流程提升系统管理的效率、加强风险管理框架,和建立反馈机制等。

 英国开放银行   VRP 

英国公布开放银行新进展,非自动转帐的可变定期支付功能将在明年第三季起分阶段上路

目前,英国有九间银行实施「可变定期支付」(Variable Recurring Payments)开放银行API,让消费者能在银行提供的平台连接自己的银行帐户,定期自动付款,例如,支付信用卡费或订阅服务。虽然过往消费者也能在银行App上对自己的帐户直接扣款,但无法在一个页面中管理所有定期支付的服务,开放VRP API後,消费者能管理自己同意向哪些机构定期付款,和限制每个服务的付款权限。

近期,英国金融监管机构宣布将进一步发展「非自动转帐VRP」(non-sweeping Variable Recurring Payments)功能,让民众能藉由银行App管理更多金额不定的经常性开销,且能与非个人或企业帐户进行转帐,例如,向政府缴交水电费和税金。第一阶段确定在明年第三季实施,将开放对公共事业、金融机构,和对地方、中央政府的支付功能。

 香港金管局   数据共享 

香港金管局宣布展开银行间帐户数据共享先导计画

香港金管局近期宣布展开「银行同业帐户数据共享」(IADS)先导计划,在顾客授权的情况下,银行间可以彼此共享顾客帐户数据。这项计画将於明年1月1日开展,共有28家银行参与,可以共享涵盖个人、企业的存款帐户资讯,包括帐户状态、结余和交易资讯。金管局预计银行业将逐步开发创新服务,例如,简话信贷申请流程、帐户资讯总览,和以数据驱动的客制服务。

 数位证券沙盒   分散式帐本技术 

英国将实施数位证券沙盒,让业者验证以分散式帐本技术作为金融基础设施的可行性

openvpn注册教程

AI趋势周报第237期:苹果提出新方法,行动装置可执行DRAM两倍大的LLM

苹果

重点新闻(1215~1221)

 DRAM     苹果     LLM  

苹果提出新方法,成功让边缘装置执行DRAM两倍大的LLM

苹果最近提出一种新方法,来解决行动装置DRAM记忆体不足、难以执行大型语言模型(LLM)的难题。进一步来说,LLM虽有出色的语言处理表现,但需耗费大量运算资源和记忆体,很难在资源有限的边缘装置上执行,特别是DRAM有限的行动装置。

於是,苹果团队结合2种技术,将模型参数储存在快闪记忆体上,再依需求,将参数传送到DRAM,让行动装置也有办法执行原本DRAM无法负荷的LLM应用。这2种技术分别是视窗化(Windowing)和列行合并(Row-column bundling),前者透过重复使用已活化的神经元,来减少资料传输,後者针对快闪记忆体的序列资料存取优势,来增加快闪记忆体读取资料的大小。团队测试,采用这些方法,可执行高达DRAM两倍大的模型,而且与单纯的CPU和GPU加载方法相比,推理速度分别提高了4到5倍和20到25倍。

这项研究意义重大,因为苹果计画将生成式AI功能整合到iOS 18作业系统中,来强化Siri和讯息App体验,更有效地回答问题和自动完成句子。不只苹果,三星最近也推出可在行动装置上执行的语言模型Gauss,并计画纳入2024年初要发布的Galaxy S24手机中,他们还打算将这种语言模型整合到其他手机、笔电和平板电脑等设备。另一方面,Google也推出Gemini Nano低阶版语言模型,可在装置上执行,且预计结合Google Pixel 8手机,要提供录音App的摘要功能和Gboard智慧键盘的智慧回应等功能。(详全文)

  LLM     Google     影片生成  

Google发表影片生成模型VideoPoet

大型语言模型(LLM)不只能用来生成文字、图片,还能生成影片。最近,Google研究院就发表了影片生成模型VideoPoet,可执行一系列影片生成任务,包括文字转影片、图片转影片、产生不同风格的影片、影片修复和外扩,以及影片转音档等。

有别於现有模型分段的做法,VideoPoet的特别之处在於,只用单一个LLM架构就整合多种影片生成能力。VideoPoet以多种标记器(Tokenizer)训练而成,像是让模型理解影片和图片的MAGVIT V2、学习音讯的SoundStream等。

经测试,团队发现,VideoPoet能根据文字提示生成更贴切的影片,也就是文字保真度和动作趣味性比Pika、Stable Video Diffusion、Imagen Video、RunwayML等同类模型表现要好。此外,VideoPoet也擅长零样本学习,能根据单一文字或图片输入,来产出良好且连贯的影片。(详全文)

  GAI    LLMOps      Google  

Google要打造从端到云全套GAI工具链

Google在12月发表不少生成式AI工具,不只有大语言模型Gemini,也在AI开发套件Vertex AI上释出企业用Gemini Pro模型预览版API,开放企业免费试用。同时,他们也推出Web版AI Studio开发工具,将自家MLOps开发平台Vertex AI转为聚焦企业GAI开发的LLMLOps平台,要涵盖开发、部署到维运更多模型生命周期阶段的需求。

进一步来说,就Gemini而言,Google发表高阶Ultra版、中阶Pro和用於行动装置的低阶Nano版模型等3种版本,Ultra版将可同时辨识和理解文字、图片与声音,也能处理几种热门开发语言,如Python、Java、C++。而先上架的Gemini Pro模型API预览版,就是中阶款,包括只支援文字输入和生成的Gemini Pro,以及Gemini Pro Vision端点这2种API,後者可处理文字和影像输入,但只输出文字。…

openvpn注册教程

Mistral AI开源采用SMoE架构的Mixtral 8x7B模型,整体效能超越Llama 2 70B与GPT-3.5

Mistral AI发表了最新的Mixtral 8x7B模型,这个模型是一个具有开放权重的稀疏混合专家模型(Sparse Mixture of Experts Model,SMoE),能够处理32,000个Token上下文,大多数基准测试表现都优於Llama 2 70B(700亿参数)和GPT 3.5模型,并采用Apache 2.0授权开源。

Mixtral 8x7B属於稀疏混合专家模型,而稀疏混合专家模型是一种深度学习架构,适合用於建置大型且高效的神经网路。专家系统是这类模型的重要概念,指的是网路中特定子模组或是子网路,每个专家都擅长处理特定类型的输入资料或是任务。

而稀疏混合专家模型中的稀疏性,则是指每次输入仅会触发一小部分专家,也就是说,并非每一个输入都需要经过所有专家处理,因此可有效降低运算成本。稀疏混合专家模型中经过训练的路由器,能够根据输入资料的特性,分配任务给最适合的专家,而在Mixtral 8x7B模型中,路由器会根据收到的任务决定2个最相关的专家,在2个专家各自处理完输入後,专家输出会被整合成最终的输出。

稀疏混合专家模型透过结合不同专家的知识和技能,以稀疏的方式处理资料,提高大型神经网路的效率和效能,在处理大量参数和资料的同时,将计算成本维持在合理范围。

Mixtral 8x7B模型总共拥有467亿个参数,虽然总参数数量很大,但在处理每个Token时,模型只会选择并使用其中的129亿个参数,而这便是稀疏性的体现,Mixtral 8x7B模型并不会每次都启动所有参数。而也因为模型每次只使用部分参数,使得处理速度和运算成本,相当於一个仅有129亿个参数的模型。

根据官方的资料,相比同为开源的Llama 2 70B模型,Mixtral 8x7B在多数基准测试表现更好,推理速度更是Llama 2 70B的6倍,而且Mixtral 8x7B在大多数标准基准测试中,表现也都与GPT3.5相当甚至超越。在幻觉(Hallucination)和偏见(Bias)方面,比起Llama 2,Mixtral表现更加真实,并且呈现较少的偏见。

目前Mixtral 8x7B能够处理英文、法文、义大利文、德文和西班牙文,其生成程式码的能力很出色。Mixtral 8x7B经过微调後的指令跟随模型Mixtral 8x7B Instruct,在MT-Bench获得8.3分,成为目前最佳的开源指令跟随模型,效能与GPT 3.5相当。…