Edge AI方兴未艾 高通全面拥抱生成式人工智慧
生成式AI正式攻占科技产业,无论那个领域都需要导入,行动通讯终端亦不例外。根据高通技术的统计,该公司的物联网专用晶片组出货量已超过3.5亿,并已扩展至各产业领域。透过释放智慧边缘的无限潜力,高通为客户提供端对端的解决方案,以最佳化其营运模式、协助做出资讯更充足的商业决策、不断推动以全新方式创新,共同为促进台湾数位转型与经济成长而努力。……
生成式AI正式攻占科技产业,无论那个领域都需要导入,行动通讯终端亦不例外。根据高通技术的统计,该公司的物联网专用晶片组出货量已超过3.5亿,并已扩展至各产业领域。透过释放智慧边缘的无限潜力,高通为客户提供端对端的解决方案,以最佳化其营运模式、协助做出资讯更充足的商业决策、不断推动以全新方式创新,共同为促进台湾数位转型与经济成长而努力。……
你用 ChatGPT 用腻了吗?最近我发现了一个更强大的 AI 助理,不用学习复杂的提示技巧,答案随传随到!
隆重向你介绍,Monica,它本来只是浏览器上的 GPT-4 外挂套件,前阵子同步推出了微软跟苹果的桌面版应用程式,按下快速键,就可以立即提问,我觉得是目前市面上最好用的 AI 助理程式,本支影片要来带你熟悉快捷操作、提问技巧以及文章生成这三个 Monica 的特色功能。
我把本支影片分成三个看点
就让我们开始吧!
—–广告,请继续往下阅读—–
今天跟你分享了 Monica 这套基於 GPT 技术的服务,还拖了微软 Bing AI 跟 MacGPT 出来当对比,你觉得 Monica 会是你心目中的最佳 AI 助手吗?
美系外资摩根士丹利(大摩)出具最新报告指出,市场共识世芯 2024 年总销量将年增超过 50%,该公司在 ASIC 设计服务极具竞争力,加上 2025 年後有望从汽车和 AI 领域赢得更多专案,因此重申优於大盘,目标价 3,880 元。
大摩指出,英特尔 Habana AI 加速器可能是世芯新一年成长关键,供应链调查显示,这款产品可能用於 7 奈米制程的 Gaudi 2,用於阿里云等中国客户上,并於 2024 年贡献 2.5 亿美元营收。英特尔 Gaudi 3 定 2024 年推出,不过出货量取决於台积电 CoWoS-S 供应。
根据供应链调查,世芯目前与中国电动车制造商力帆集团合作 5 奈米专案,同时,蔚来汽车自研自驾晶片量产时间从 2026 年提前至 2025 年。大摩指出,与特斯拉全自动驾驶(FSD)晶片和 NVIDIA Orin自主晶片比较,蔚来汽车 …
受惠生成式人工智慧(AI)带动的新兴需求,资金聚焦 AI 题材股,美国科技股「七巨头」(Magnificent Seven)扛起 2023 年美股多头大旗。展望 2024 年,专家认为,七巨头股价虽已涨多,但没有过热疑虑,股价仍有机会继续向上,做空七巨头绝非明智之举。
Markets Insider报导,随着AI题材爆发,美国大型科技股股价沾光,尤其是苹果、微软、Google母公司Alphabet、亚马逊、NVIDIA、Meta和特斯拉等七档重量级科技股,2023年上涨逾40%至240%不等,而大盘标普500指数2023年强涨23%,有高达四分之三的涨幅来自於七巨头的贡献,市场上甚至出现「标普493指数」一词,形容股市涨势极度头重脚轻。
根据知名投行高盛(Goldman Sachs)统计,2023年截至11月底,美股科技七巨头股价飙涨71%,相较之下,标普500指数其余493档成分股,股价在此期间仅小涨6%。
高盛首席美股策略师David Kostin直言,AI热潮带动七巨头股价水涨船高,以AI长线趋势不变来看,2024年,七巨头股价有机会再攻高,保持优於标普500指数其他成分股的表现。
观察全球AI市场,美股七巨头各据山头。例如:NVIDIA掌控训练AI模型的GPU市场、微软与OpenAI紧密合作,Google拥有Gemini AI模型,而苹果和亚马逊也在AI方面扩大布局,抢占市场大饼。
另外,七大科技巨头坐拥大量现金,并有海量的现成资源用来研发AI,为七巨头发展AI市场一大优势,其他竞争对手难以轻易撼动,也是七巨头2024年可望再创优异绩效的主要原因。
Minerva Analysis创办人Kathleen Brooks提醒,美股七巨头2023年大丰收,不代表2024年必会回档整理,现在做空七巨头等於是挑战市场,显然不是一个好主意。
(本文由 MoneyDJ新闻 授权转载;首图来源:shutterstock)…
中国电动车生产商比亚迪( BYD )一直追着 Tesla ,期望有朝一日追过其销量,这天终於来到。根据比亚迪的报告显示,2023 年第四季纯电车的销量超过市场一哥 Tesla,以破纪录的 526,000 辆当上这季度的销售龙头,领先同样刷新销售纪录 484,500 辆的 Tesla。
不过,按全年销量计算, Tesla 仍然以 180 万辆稳占第一。而比亚迪的新能源汽车( NEV )全年销量超过 300 万辆,当中有约 160 万辆属纯电车。Tesla 行政总裁 Elon Musk 原本预计 2023 年的销量可达 200 万辆,最终未能如愿。去年,该公司为了增加销量曾多次减价吸引买家。另一方面,为扩大产能,在去年 3 月落实於墨西哥投资逾 50 亿美元建新房,之後在 7 月又指有计画於印度兴建超级工厂,目标生产售价约 18 万港元的入门级电动车,希望拓展新市场。
从去年第四季比亚迪的电动车销售超过 …
分享至
订阅 CASE YouTube 锁定直播 开启
采访、撰文|谢达文
审定|吕欣泽 教授
政治大学创新国际学院 吕欣泽 助理教授|来源:讲师提供「定义问题」和「拆解问题」──吕欣泽从自身的经验出发,强调如果要让科技工具发挥最大效用,关键正是这两项能力。
吕欣泽目前任教於政治大学创新国际学院。在攻读博士班、进入学界之前,他曾是财团法人资讯工业策进会(简称资策会)的一名工程师,协助台湾的科技业者发展所需的技术。他之所以决定报考博士班,正是因为他在资策会工作期间,发现自己的能力有所不足。而这一个发现,居然跟两千公里外的一场洪灾有关。
那是2011年10月,当时国际上硬碟每四颗就有一颗是从泰国出产,而泰国中部工业园区遭遇的洪灾,迫使数家国际硬碟大厂宣布减产,硬碟价格因而翻涨。
那时的吕欣泽正在资策会领导一个团队,刚执行完一个大专案。在那个专案中,他不必自己思考计画的目标,而是跟随大前辈的指引前进。这位大前辈叫做王玮,曾经在美国担任IBM系统和技术部副总裁,退休後回到台湾。吕欣泽解释,「大前辈看到了台湾科技产业的窘境」,点出台湾的硬体产业虽然相当强大,但缺乏相搭配的软体为产品加值。在这个战略目标下,吕欣泽负责的专案是为台湾硬体业者发展相搭配的云端储存软体。他们研发结果相当成功,甚至受邀到美国拉斯维加斯发表研发成果──「我们还有露出国旗」,他不无得意地说。
由於过往的成绩,吕欣泽的主管希望他能够尝试自己提案,向高层争取研发经费。为此,他第一次需要独立作业,「报告市场的状况和遇到的问题,以及可能的解方,说服主管提供一年的经费。」
在发想过程中,他回想起泰国洪水导致硬碟价格飙涨的困境,因而提议研发让硬碟使用成本降低的技术。然而,在报告後主管却马上点出,「这是偶然的事件,而且制造商也会调适」,硬碟售价过一段时间就会回稳,因此不是一个必需解决的问题──吕欣泽现在已能笑着回忆结果:「当然,这个经费我也没有拿到。」
这个经验让他体认到,要能精准「定义问题」,才能运用科技发挥影响力。「我就是缺乏定义问题的能力,所以决定去念博士班培养这样的能力。」
在好友的推荐下,他找到时任教育部资讯及科技教育司司长的杨镇华教授担任指导,投入资讯与教育相关的主题,关注如何「让小朋友的学习体验更好」。他开始投入电子书、程式设计工具等一个又一个的学习软体中,从文献和一线教师的需求中厘清问题所在。
有了这样的经验累积,被问到会给学生怎样的建议时,吕欣泽更有信心,强调「定义问题」确实是重中之重──「要能够辨认业务上的痛点,唯有知道业务上的痛点才能知道如何解题。」
他更进一步提醒:「只要把问题提出来,要用AI解决就很容易,所以平常就要放『心』在业务上,并且要去问怎麽样才可以做得更好。」科技工具会不断翻新,这种找出痛点的能力才是真正的核心。
当然,定义问题之後仍须解决问题。对此,吕欣泽强调「解构问题」的重要性。
这同样与他自身经验有关。「我在硕士时接到一个案子,要处理一个影像的问题,当时发现没有办法一次解决,但可以先做A再做B,拆成五、六块就能解决了。」而到了博士班之後,他才意外读到这种技能早就有人讨论,在文献上被称为先decompose再compose的技能。
现在,他将这个体认融入课堂的设计中。面对ChatGPT,他主张并不需要防堵学生使用,而应该让学生练习拆解问题,并与AI分工合作。因此,他反而要求学生练习用ChatGPT解决问题,并尝试记录学生与ChatGPT互动的过程,甚至特别为此写了程式,让学生可以藉由Line使用付费版的ChatGPT。
到了期末考,他则设计一个复杂的递回问题,学生无法直接将题目的要求丢进ChatGPT,必须先迅速将专案拆解成小模组,让ChatGPT分开回答之後,再来想办法整合。同时,他也鼓励同学拆解问题後,彼此合作、分工解题。「我唯一的要求是不可以讲话,但你尽情地使用电脑,甚至使用ChatGPT。」
「有些人甚至会认为这是作弊」,但吕欣泽指出,这个模式才真正符合业界真实的工作型态。他举例,「在资策会,我们常独自至业者的机房解题,多数情境也是仰赖团队合作」,将专案拆解成好几块之後,再交由不同团队成员解决。除此之外,工程师本来就不需要自己从零开始写程式,「我们之前写程式,也都经常先Google,或者是到Stack Overflow上复制别人写的程式码再改写」──他说,唯一的差别是现在的学生连Google都不用了,而可以直接利用AI、与AI分工合作。
正是在这个思维下,吕欣泽才做出了这样的结论:与其担心AI取代工作,我们「更该思考可以如何运用AI,才能提升我们的工作效率」。而显然,定义问题和拆解问题的能力,将是思考此一问题时的两大关键。
近年 CPU 功耗愈来愈高,就像近两代 i9 的 253W 就需要 360 水冷排才能相对能提供「合理」温度。因此用家想「平玩」i9 最少都要用到 360 水冷散热。而近日 JONSBO 就有一款相对入门的水冷以超低价出售,当中 240 水冷 $299 就有交易,而 360 更只需 $399,规格上此款 TG-240/360 就用到 ARGB 风扇;水泵亦有 ARGB。虽然价钱便宜,但产品仍支援 LGA 1700 及 AM5 等新平台之余,水冷亦是今年产品,因此如果想平平地「打爆」机箱的话,i5 配个 360 排也不算过份。
JONSBO TG-240 黑:$299
JONSBO TG-360 黑/白:$399…
Tesla 终於公布了 Cybertruck 的价格、续航里程、配置等详细资讯,现在这款皮卡终於到了那些耐心等待四年的人手中,同时也推出了相应的配件。
在 Tesla Cybertruck 商店中,最引人注目的选择包括 Cybertruck BaseCamp、两种不同的车身贴纸选项、储物解决方案和尾门坡道。Tesla Cybertruck BaseCamp 是一个非常适合计划使用该车辆进行露营或类似户外活动的选择:
「将营地随身携带,Cybertruck BaseCamp 帐篷采用超轻型的几何气架设计,只需使用手动泵即可在几分钟内充气,无需任何结构柱。战术灰色万花筒图案尼龙内饰可保护 你免受外界因素的侵扰,而萤幕窗口可提供通风,让 你保持舒适。躺在超柔软的床垫上,欣赏星空的美景。」
售价 2975 美元的 Cybertruck BaseCamp 对於计划在 Cybertruck 中度过几个晚上的人来说是一个很好的配件选择。
Tesla Cybertruck 车身贴纸一直是过去几年的猜测话题。几年前, Elon Musk 表示我们将能够用任何颜色或图案来贴紮 Cybertruck。目前, Tesla 表示只提供黑色或白色。
「使用我们的高级色彩涂料膜为 你的 Cybertruck 贴紮,这些膜只能通过 Tesla …
先把 OpenAI 管理层大乱斗放到一边,聊聊最新传言:Q*。
OpenAI 11 月 22 日寄了员工信,证实有 Q* 计画,描述为「超越人类的自主系统」,着实让人害怕。虽然OpenAI还没放出任何Q*细节,但以我们微薄知识来看看这可能是什麽。
第一步是Q*怎麽读,正式名称念作Q-Star。你没看错,即便深度学习,区块间透过乘积求解,但Q*的「*」并不是指乘法,而是「星号」。「Q」字母在强化学习表示动作的期望奖励。
人工智慧领域凡跟大写Q沾上边,本质都是Q学习。Q学习以现在评判标准可算是强化学习的一种,指训练时记录历史奖励值,告诉智慧体下步怎麽选才能与历史最高奖励值相同。但注意,历史最大奖励值并不代表模型最大奖励值,有可能是也很大可能不是,甚至可能完全无关。换句话说,Q学习和智慧体就像球队分析师和教练的关系,教练指导球队,分析师辅佐教练。
强化学习时智慧体输出决策是回馈到环境才能得到奖励,Q学习因只记录奖励值,因此不需要建模环境,等於「结果好,一切就好」。
不过看起来Q学习好像不如现在的AI,尤其大模型常用深度学习模型,动不动几十亿、几百亿参数,Q学习不仅对模型没什麽帮助,反倒增加复杂性,降低稳健度。别急,其实这是因上述Q学习背後想法只是诞生於1989年的基本概念。
DeepMind 2013年改进Q学习,推出演算法叫深度Q学习,特点就是经历重播,从过去多结果采样,再使用Q学习,达到提高模型稳定性,降低模型因某次结果导致训练方向太发散。但实话实说,这概念没有成主流当然有原因,实际意义看,深度Q学习最大作用就是发展成DQN。DQN指深度Q网路,从深度Q学习诞生。DQN想法和Q学习一模一样,但求得Q学习最大奖励值时是用神经网路达成,这就fashion起来了。
DQN同时间只会产生一个节点,DQN会产生优先权伫列,再把剩下节点和动作元祖存到优先权伫列里。显而易见,一个节点肯定不够用,如果全程就一个节点那最後求解答案一定错得离谱。当节点和动作元祖从队列移出,就会根据动作应用到已产生的节点关联性产生新节点,以此类推。
稍微懂点人工智慧发展史的人会越看越眼熟,这不就是高配版佛洛伊德求边长?
现代电脑处理器核心原理就是佛洛伊德演算法,与历史最优值比对,求得两点间最短路径。记忆体作用就是将计算以优先权储存,每当处理器完成一次计算,记忆体再把下一条计算丢给处理器。
DQN没什麽本质差别,这基本就是Q的意思,那*又指什麽?许多业界人士分析,*很可能指A*演算法。这是一种启发式演算法,先不讲启发式演算法是什麽,来讲个笑话:
A问B:「快速算出1928749189571*1982379176乘积」,B立刻回答:「32」,A很纳闷,这麽大两数相乘,不可能答案是两位数,B反问A:「你就说快不快?」
看起来离谱,但启发式演算法同道理。
本质是估算,效率和正解间只能选择一个──不是讲究效率但有时出错,要不就讲究正确性但耗时很长。A*演算法先透过启发式演算法估算大概值,当然这值很可能极度偏离正解。估算完成後开始循环遍历,如果怎样都没办法解开就重新估值,直到开始出现解。如此反覆,最终得出最佳解。
虽然得到最佳解,A*就是上文提到的第二种,答案对,耗时较长。放在实验室环境还好,这种演算法要是登上个人装置,有可能导致记忆体溢出,产生系统问题,例经典蓝色画面。
因此这限制使过往A*演算法往往用於较不复杂的模型,最典型就是网路游戏角色找路。大型游戏角色找路开始刹那要是卡顿,就是因A*演算法。
综合看,人工智慧圈共识是OpenAI提到的Q*演算法,大概是Q学习和A两者截长补短,即节省算力、节省记忆体并得到最佳解──因总不可能多花费算力又浪费记忆体,最後还得不到最佳解吧!
且就像OpenAI把基础模型这件事最终做成,同样早已存在,甚至一度遭冷落,直到OpenAI用创新方法重新挖掘潜力。现在我们有理由相信Q和A这早就存在的算法思路,OpenAI能故技重施再创造奇蹟──当然这奇蹟会危害人类的可能性也因最近OpenAI闹剧让更多人忧心忡忡。
回到演算法,Q*最有可能的样子是利用Q学习快速找到接近最佳解的估值,再利用A*演算法小范围求解,省去大量无意义计算,达到快速求得最佳解。但OpenAI会怎麽做,还得等论文公开(如果等得到)。
Q*出现说明一个问题,人工智慧领头公司意识到人工智慧发展求解的过程比求解更有意义,因现在只追求答案的正确性不再能满足人们对人工智慧的需求,如OpenCompass即便平均分数差10或20分,如果从理解准确率看,最好和最差模型差距没有很大。
人们猜测和恐慌关於Q*的说法是,Q*可解决非常高级的数学问题。萨里以人为本人工智慧研究所所长安德鲁·罗戈斯基表示:「我们知道现有人工智慧已证明能做本科水准的数学运算,但无法处理更高级数学问题。但Q*极有可能解决高难度数学问题。」说不定等到Q*出现,还能考考它哥德巴赫猜想(Goldbach′s conjecture)。数学是人类智慧的最伟大结晶之一,因此Q*只是还只是个代号就引发全世界恐慌。
Q*背後也与OpenAI使命连结──通用人工智慧(AGI),甚至超级智慧。OpenAI将AGI定义为最具经济价值的任务超越人类的自主系统,Q*就是OpenAI迈向AGI的一步。
OpenAI对Q*和信件外泄没有发表任何评论,但笔者喜忧参半。对Q*拥有强大能力很开心,人工智慧领域发展会更进一步;同时担心Q*噱头大於实力,真到发表那天测试结果就那麽回事,狠狠打脸笔者。
(本文由 品玩 授权转载;首图来源:shutterstock)
…是德科技(Keysight Technologies,Inc.)与联发科技合作成功验证了基於3GPP Rel-17标准的5G NR和5G RedCap互通性开发测试。联发科技使用了是德科技的5G网路模拟解决方案成功验证了其最新的5G Modem技术。
IODT是验证终端设备是否符合新5G规范的重要步骤。该测试可以确保一个终端设备和基地台之间,根据预先选定测试条件,建立并保持一个5G通讯链路。
是德科技和联发科技进行的RedCap互通性测试验证了联发科技5G Modem技术支援早期识别、频宽部分(BWP)定义、用户设备功能、无线资源管理(RRM)放松、网路控制设备同步讯号块(NCD-SSB)、探测参考讯号(SRS)增强、扩展非连续接收(eDRX)以及用於跳频的PUCCH。5G NR IODT验证了晶片组支援的最新Rel-17功能,包括省电、小资料传输和NR覆盖增强。…