会员
智慧家庭终端开发教程
更新时间:2019-07-30 17:13:27 最新章节:参考文献
书籍简介
本书是一本介绍智慧家庭终端开发的高职教材。全书共分6章:第1章基础知识,第2章智慧家庭几种智能终端简介,第3章智慧家庭终端的几种常见硬件,第4章嵌入式软件开发,第5章智慧家庭终端的开发,第6章智慧家庭终端开发案例。其中第6章既有产品功能定位,还有单元电路原理图和主要器件性能介绍。本书内容丰富、语言通俗,图文并茂,可以作为高等职业院校物联网应用、智能终端技术与应用与智能产品开发等专业教材,还适合于广大创客、智能产品开发技术人员阅读,也可作为上岗培训班的教材。
品牌:机械工业出版社
上架时间:2018-04-08 00:00:00
出版社:机械工业出版社
本书数字版权由机械工业出版社提供,并由其授权上海阅文信息技术有限公司制作发行
最新章节
刘修文主编
同类热门书
最新上架
- 会员全书从逻辑上共分3部分。第一部分由第1章和第2章组成,介绍深度学习的基础理论、MindSpore总体架构和编程基础。第二部分由第3~8章组成,介绍MindSpore框架各子系统的具体情况,包括数据处理、算子、神经网络模型开发、数据可视化组件MindInsight、推理、以及移动端AI框架MindSporeLite。第三部分由第9章和第10章组成,介绍使用MindSpore框架开发和训练的经典深度计算机13万字
- 会员本书以人工智能技术在合成生物学领域的理论、方法及应用为主线,详细阐述人工智能在合成生物学不同层面设计中的应用进展,深入讨论人工智能在合成生物学实际应用中面临的挑战与困难。本书先概述合成生物学与人工智能基本概念以及发展简史,然后介绍人工智能技术在生物元件、生物模块、生物系统设计方面的应用,并通过案例展示了人工智能与合成生物学技术在生物医药领域的研究进展,最后分析了人工智能驱动合成生物技术的发展趋势,计算机23万字
- 会员《ChatGLM3大模型本地化部署、应用开发与微调》作为《PyTorch2.0深度学习从零开始学》的姊妹篇,专注于大模型的本地化部署、应用开发以及微调等。《ChatGLM3大模型本地化部署、应用开发与微调》不仅系统地阐述了深度学习大模型的核心理论,更注重实践应用,通过丰富的案例和场景,引导读者从理论走向实践,真正领悟和掌握大模型本地化应用的精髓。全书共分13章,全方位、多角度地展示了大模型本地化计算机13万字
- 会员大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及微调技术,为读者揭示大模型开发技术。《从零开始大模型开发与微调:基于PyTorch与ChatGLM》共18章,内容包括人工智能与大模型、PyTorch2.0深度学习环境搭建计算机12.8万字
- 会员本书旨在采用一种符合读者认知角度且能提升其学习效率的方式来讲解深度学习背后的核心知识、原理和内在逻辑。经过基础篇的学习,想必你已经对深度学习的总体框架有了初步的了解和认识,掌握了深度神经网络从核心概念、常见问题到典型网络的基本知识。本书为核心篇,将带领读者实现从入门到进阶、从理论到实战的跨越。全书共7章,前三章包括复杂CNN、RNN和注意力机制网络,深入详解各类主流模型及其变体;第4章介绍这三类基计算机13.4万字
- 会员随着ChatGPT等大语言模型的迅速发展,大语言模型已经成为人工智能领域发展的快车道,不同领域涌现出各种强大的新模型。开发者想要独立构建、部署符合自身需求的大语言模型,需要理解大语言模型的实现框架和基本原理。本书梳理大语言模型的发展,首先介绍Transformer模型的基本原理、结构和模块及在NLP任务中的应用;然后介绍由只编码(Encoder-Only)到只解码(Decoder-Only)的技术计算机6.6万字
- 会员本书是一本全面介绍机器学习方法特别是算法的新书,适合初学者和有一定基础的读者。机器学习可以分成三大类别,监督式学习、非监督式学习和强化学习。三大类别背后的算法也各有不同。监督式学习使用了数学分析中函数逼近方法、概率统计中的极大似然方法。非监督式学习使用了聚类和贝叶斯算法。强化学习使用了马尔可夫决策过程算法。机器学习背后的数学部分来自概率、统计、数学分析以及线性代数等领域。虽然用到的数学较多,但是最计算机7.4万字
- 会员人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2计算机14万字