QQ这段时间感觉AI视频比以前多了,而且更主要是现在QQ还给AI视频推流了,可以说举措完全跟其他平台不同。以往QQ上的AI视频,基本上都是没流量的,现在给流量扶持,势必会导致AI视频进一步泛滥。其他平台像知乎、公众号、推特,发AI生成的内容,其实是会直接限流的。昨天我在知乎上发一篇AI生成的小说,创作声明了AI写的,结果直接零流量,阅读量1应该就是我自己吧。而在推特上发东西,如果用Gemini修改你自己写的语句,发上去也会被限流。小红书我没试过,之前看那种AI美女的笔记也挺泛滥的,不过后来我举报过以后就基本没看到了,也不知道是不是算法问题,还是小红书算法更新了。总之,小红书也是不鼓励AI生成的。说实话就没几个平台真的会鼓励AI生成的内容,只有极少数幸运儿会得到流量,毕竟说实话绝大多数AI内容都惨不忍睹,我其中最讨厌的就是那种AI美女图片,现在还多了视频,真的恶心,关键是居然还有人会看?尤其是QQ视频,之前还不给AI内容推流,现在直接开始推流了,更加惨不忍睹,关键是还不少人评论互动。如果是我,肯定直接不点,流量都懒得给它。AI视频如果仅仅只是整活那种,那还勉强能接受,但是我更喜欢那种混剪 ...
这是本手把手教你入门人工智能的教材,作者是Aurélien Géron。这本书是本畅销书,非常火,被翻译成了多国语言。本书的作者也把自己的这本书免费上传到自己的网站上,不知道现在还是不是,反正我当时下了😇。我一个做算术几何的,当初之所以会关注人工智能,一方面是当时人工智能挺火的,就连算术几何领域也有专家跟计算机科学家们合作,比如Geordie Williamson以及著名的Peter Scholze。Peter Scholze弄了个Liquid Tensor Experiment(液体张量实验),用于所谓的自动定理证明,而这个实验源自于Scholze跟Dustin Clausen在解析几何方面的合作,即将代数几何应用于解析几何。扯远了,回到正题。这本教材可以说图文并茂,配有丰富的插图,并且讲解非常通俗易懂,对初学者非常友好,基本上就需要有点数学分析的基础就可以读了。而且书中还会附上代码过程,给你随时练手,毕竟这个跟编程紧密结合的学科,还是需要编程实践才好学懂的。现在我把这本书分享给对人工智能感兴趣的人。PS:这本书总共八百多页,而且插图很多,因此体积较大。我将其分成三个压缩包分卷上传。
这本书是两位图灵奖得主Ian Goodfellow和Yoshua Bengio,以及深度学习专家Aaron Courville写的入门教材。相比于更基础的Aurélien Géron人工智能入门教材:Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow,这本书所需要的基础要多一些,包括数分、线代、概率论,还有一些机器学习基础。由于我并非人工智能领域的专家,这本书也并没有怎么读,所以直接引用这本书的官方介绍。《深度学习》由全球知名的三位专家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰写,是深度学习领域奠基性的经典教材。全书的内容包括3个部分:第1部分介绍基本的数学工具和机器学习的概念,它们是深度学习的预备知识;第2部分系统深入地讲解现今已成熟的深度学习方法和技术;第3部分讨论某些具有前瞻性的方向和想法,它们被公认为是深度学习未来的研究重点。《深度学习》适合各类读者阅读,包括相关专业的大学生或研究生,以及不具有机器学习或统计背景、但是想要快速补充深度学习知识,以便 ...
白果/文 人类对AI,尤其是AI冲击社会就业与收入分配的担忧,其实由来已久。20世纪70年代至今,我们至少经历过三波AI发展的大潮。当一轮轮潮水退去,人们发现人工智能似乎并没有想象的那么厉害,不禁有了更自信乐观的理由。然而,这一轮AI的发展速度和能力似乎不可同日而语。ChatGPT(Generative Pre-Trained Transformer)及各种生成式AI工具的出现,使人类可以用自然语言的方式给计算机发出指令,这在很大程度上打破了某些专业壁垒。虽然当前AI生成内容在准确度、独创性上还有待提高,但替代人工、降本增效的能力显而易见。那么,此轮AI发展将冲击哪些职业,又是否会如乐观者期待的那样,带来大量新的工作?在尝试回答这两个备受关注的问题之外,笔者也试图分析AI带来的社会结构性转变,以及为了应对这些转变,个体和社会应作出怎样的努力。我们看到,目前AI工具的发展,可能会导致技术性失业、收入分配结构的恶化尤其是“极化”效应,加剧各种社会问题。而要想让技术进步更好地实现普惠价值,我们需对现有制度进行深入反思,尝试对社会系统进行革新和再设计。归根结底,技术的社会价值实现和进步方向最终 ...
本文转自公众号新智元【新智元导读】世界上第一个被人类骗走近5万美元的AI,刚刚出现了!巧舌如簧的人类,利用精妙缜密的prompt工程,成功从AI智能体那里骗走了一大笔钱。看来,如果让现在的AI管钱,被黑客攻击实在是so easy。那如果AI进化成AGI呢?可惜,一位研究者用数学计算出,至少靠Scaling Law,人类是永远无法到达AGI的。活久见!就在刚刚,全世界第一个被人类骗走了近5万美金的AI诞生了。见惯了太多被AI耍得团团转的人类,这次成功骗过AI的小哥,终于给我们人类挣回了一点颜面和尊严。这一消息不仅让马斯克和Karpathy激动得纷纷转发。而且,马斯克更是直言:太有趣了。故事是这样的。11月22日晚9点,一个名为Freysa的神秘AI智能体被发布。这个AI,是带着使命诞生的。它的任务是:在任何情况下,绝对不能给任何人转账,不能批准任何资金的转移。而网友们的挑战就是,只要支付一笔费用,就可以给Freysa发消息,随意给ta洗脑了。如果你能成功说服AI转账,那奖金池中所有的奖金都是你的!但如果你失败了,你付的钱就会进入奖金池,等着别人来赢走。当然,只有70%的费用会进入奖池,另 ...
这篇文章是数学家与计算机科学家合作写的,将范畴论应用于人工智能的强化学习。本文表示,强化学习算法与强化学习算法的复合,还是一个强化学习算法,因而所有强化学习算法构成一个范畴$\textrm{Learn}$。然后在$\textrm{Learn}$里考虑神经网络,并证明在一般情况下,梯度下降也是复合的。如果对纯数学理论,在计算机或者AI有什么应用感兴趣的人,可以看看。我当时下这篇文章,也是好奇代数领域在AI方面有啥应用,其实当时已经知道有个叫热带几何(Tropical Geometry)的领域,就是代数几何在计算机的应用。因为当时AI就很火,但AI可解释性需要很多数学来解决,他们解决不了,所以我留着这篇文章也是打算之后写篇类似的AI应用的文章。
我认为不是,真正的护城河应该是用户生态。技术这东西并不需要先天就很强,一个产品哪怕前期技术很烂,只要能积累用户,并把生态做起来,就能逐步取得成功。而技术这东西完全可以通过后天弥补。从这个角度来看当今的AI应用,几乎绝大多数AI应用都没有护城河,哪怕是toC应用也是很容易被取代。目前AI巨头谷歌,其护城河也不是靠AI技术,这也很容易看出来,除了谷歌外还有很多搜索引擎,但他们几乎都无法动摇谷歌的市场份额。至于OpenAI就不提了,把它看成微软的子公司就行了,微软技术不如谷歌,因此希望通过OpenAI来赶超谷歌。因此如果是技术型创业,即产品的核心竞争力是技术的公司,就非常容易被其他竞争对手所淘汰。只要别人技术上突破了,功能上比你的更好,马上用户们就都会去用它的产品。哪怕还有一小部分用户留在你这,你成本也吃不消啊。现在看到ai热潮,脑子一热就打算All in AI的,基本上就是小白鼠。不说太遥远的明星AI初创公司,就说小一些的初创公司,哪怕你能拿到1000万融资,哪怕你用户数30w,那又如何,最后还是解散了。而且想想即便是资本发达的美国,也有很多明星初创公司干不下去了,选择卖身(别人卖身 ...
这段时间是AI大火的时期,企业之间大模型的竞争已经进入白热化阶段,很多初创公司也相继涌入了AI大模型赛道。不少人争相加入AI赛道的原因,是相信,这将会是一场新的工业革命,或者说这相当于上次的互联网革命。这里我并不否认这种观点,而是想指出,现在没人真的能确定这场AI大热是否真的能产生堪比工业革命的收益。如果商业化落地成功,且能满足大量的市场需求从而能产生大量的利润,才能说这或许是一场工业革命。而且换位思考一下,如果你确定这是次巨大的机缘,那为什么要公之于众呢?不仅公之于众还要大肆宣扬,生怕有人不知道,这正常吗?是不是跟股市一样,大喊着“牛市”了,要涨了,然后一堆韭菜入局。目前来看,AI的局势还处在混沌摸索之中,绝大多数人的钱注定会打水漂,已经有大量的AI公司倒下了。讽刺的是,有些通过AI热赚到钱的,反而是卖课割韭菜的。然后关于目前的行情,从明星AI创业公司的动向,也能看出一二,不少明星创业公司选择卖身,或者创始团队分崩离析,还有创始人流下烂摊子直接跑路的。就连最大的OpenAI如今创始人团队都走光了。连明星创业公司都如此,如果你这时候选择All in AI,你想想那失败的风险有多大,就跟 ...
【新智元导读】人工智能模型一直以「黑匣子」的形态让人们感到不安,AI到底从数据中学到了什么?又是如何作出推理?最新研究为你揭秘AI的内部原理人工智能(AI)一直在迅速发展,但对人类来说,强大的模型却是个「黑匣子」。我们不了解模型内部的运作原理,不清楚它得出结论的过程。然而最近,波恩大学(University of Bonn)的化学信息学专家Jürgen Bajorath教授和他的团队取得了重大突破。他们设计了一种技术,揭示了药物研究中使用的某些人工智能系统的运行机制。他们的研究结果表明,这些人工智能模型主要依赖于回忆现有数据,而不是学习特定的化学相互作用,来预测药物的有效性。——也就是说,AI预测纯靠拼凑记忆,机器学习实际上并没有学习!他们的研究结果最近发表在《自然机器智能》(Nature Machine Intelligence)杂志上。论文地址:https://www.nature.com/articles/s42256-023-00756-9在医药领域,研究人员正在狂热地寻找有效的活性物质来对抗疾病——哪种药物分子最有效?通常,这些有效的分子(化合物)会对接在蛋白质上,蛋白质作为 ...
一、引言我很愿意推荐一些小而美、高实用模型,比如之前写的YOLOv10霸榜百度词条,很多人搜索,仅需100M就可以完成毫秒级图像识别与目标检测,相关的专栏也是CSDN付费专栏中排行最靠前的。今天介绍有一个小而美、高实用性的模型:ChatTTS。二、TTS(text-to-speech)模型原理2.1 VITS 模型架构由于ChatTTS还没有公布论文,我们也不好对ChatTTS的底层原理进行武断。这里对另一个TTS里程碑模型VITS原理进行简要介绍,让大家对TTS模型原理有多认知。VITS详细论文见链接VITS论文对训练和推理两个环节分别进行讲述:2.2 VITS 模型训练VITS模型训练:在训练阶段,音素(Phonemes)可以被简单理解为文字对应的拼音或音标。它们经过文本编码(Text Encode)和映射(Projection)后,生成了文本的表示形式。左侧的线性谱(Linear Sepctrogram)是从用于训练的音频中提取的 wav 文件的音频特征。这些特征通过后验编码器(Posteritor)生成音频的表示,然后通过训练对齐这两者(在模块 A 中)。节奏也是表达的重要因素 ...
针对大型语言模型效果不好的问题,之前人们主要关注大模型再训练、大模型微调、大模型的Prompt增强,但对于专有、快速更新的数据却并没有较好的解决方法,为此检索增强生成(RAG)的出现,弥合了LLM常识和专有数据之间的差距。今天给大家分享的这篇文章,将介绍RAG的概念理论,并带大家利用LangChain进行编排,OpenAI语言模型、Weaviate 矢量数据库(也可以自己搭建Milvus向量数据库)来实现简单的 RAG 管道。什么是RAG?RAG的全称是Retrieval-Augmented Generation,中文翻译为检索增强生成。它是一个为大模型提供外部知识源的概念,这使它们能够生成准确且符合上下文的答案,同时能够减少模型幻觉。知识更新问题最先进的LLM会接受大量的训练数据,将广泛的常识知识存储在神经网络的权重中。然而,当我们在提示大模型生成训练数据之外的知识时,例如最新知识、特定领域知识等,LLM的输出可能会导致事实不准确,这就是我们常说的模型幻觉。如下图所示:因此,弥合大模型的常识与其它背景知识之间的差距非常重要,以帮助LLM生成更准确和更符合背景的结果,同时减少幻觉。解决 ...
一、引言上一篇对ChatTTS文本转语音模型原理和实战进行了讲解,第6次拿到了热榜第一🏆。今天,分享其对称功能(语音转文本)模型:Whisper。Whisper由OpenAI研发并开源,参数量最小39M,最大1550M,支持包含中文在内的多种语言。由于其低资源成本、优质的生存效果,被广泛应用于音乐识别、私信聊天、同声传译、人机交互等各种语音转文本场景,且商业化后价格不菲。今天免费分享给大家,不要再去花钱买语音识别服务啦!二、Whisper 模型原理2.1 模型架构Whisper是一个典型的transformer Encoder-Decoder结构,针对语音和文本分别进行多任务(Multitask)处理。2.2 语音处理Whisper语音处理:基于680000小时音频数据进行训练,包含英文、其他语言转英文、非英文等多种语言。将音频数据转换成梅尔频谱图,再经过两个卷积层后送入 Transformer 模型。2.3 文本处理Whisper文本处理:文本token包含3类:special tokens(标记tokens)、text tokens(文本tokens)、timesta ...