
ThingsKit平台接入有人物联M100网关
ThingsKit平台接入有人物联M100网关 实现数据采集和存储,实现平台指令下发到网关子设备完成控制。 有人物联M100网关配置 数据推送报文 场景:网关对其接入的网关子设备完成数据采集后,以配置的数据格式通过mqtt推送到上级平台。 以照明设备4luzhaoming为例,values数组为网关子设备设置的点位名称。注意使用sys_unix_time函数填充时间戳。 { "...

ThingsKit平台接入有人物联M100网关 实现数据采集和存储,实现平台指令下发到网关子设备完成控制。 有人物联M100网关配置 数据推送报文 场景:网关对其接入的网关子设备完成数据采集后,以配置的数据格式通过mqtt推送到上级平台。 以照明设备4luzhaoming为例,values数组为网关子设备设置的点位名称。注意使用sys_unix_time函数填充时间戳。 { "...

JeecgBoot低代码平台AI工作流技术解构 github仓库:jeecgboot/JeecgBoot,基于3.8.2版本sprongboot3分支。 概述 JeecgBoot是一个基于Spring Boot 3的开源低代码平台,集成了AI工作流功能,支持通过可视化界面构建和运行AI应用。 核心框架 LiteFlow: 开源的规则引擎。在项目用于工作流编排和执行,而不是Lang...

AI大模型CoT思维链技术简介 概述 思维链(Chain of Thought, CoT)是一种让大语言模型显式展示推理过程的技术。它通过将复杂问题分解为多个步骤,逐步展示模型的思考过程,从而提升推理的准确性和可解释性,实现了从”猜测答案”到”真正思考”的转变。 核心特点 显式推理:将原本隐式的推理过程显式化 步骤分解:将复杂问题分解为简单子问题 上下文传递:每步推理结果...

KubeEdge使用keadm工具部署 kubeedge安装需要依赖k8s环境。 镜像源配置 # 备份当前源 sudo cp /etc/apt/sources.list /etc/apt/sources.list.backup # 替换为阿里云源 sudo tee /etc/apt/sources.list > /dev/null <<EOF deb http://mi...

KubeEdge dashboard看板部署 源码本地运行方式,需要运行前端和后端两个工程,下载源码github kubeedge/dashboard 环境依赖 KubeEdge golang 后端部署 下载依赖 cd modules go mod download 启动后端服务 # 获取API Server地址 kubectl cluster-info # 启动后端(替...

KubeEdge单服务器keink模式构建和部署 正常部署需要两台服务器,分别部署云端节点和边缘节点。在条件受限的环境,使用单台服务部署,参考文档kubeedge install-with-keink docker环境准备 略 kubectl环境准备 软件包源配置 # 备份当前源 sudo cp /etc/apt/sources.list /etc/apt/sources.list.b...

包管理工具pnpm和npm对比 pnpm和npm都是Node.js的包管理工具。总的来说,pnpm在性能和安全性方面有明显优势,而npm在兼容性方面更胜一筹。 🚀 性能差异 pnpm优势 磁盘空间效率:使用硬链接和符号链接,避免重复存储相同的包 安装速度:通常比npm快2-3倍 网络效率:只下载缺失的包,不会重复下载 npm特点 传统方式:每个项目都完整复制依赖包...

ThingsKit平台本地开发环境打包构建 ThingsKit是基于开源项目ThingsBoard基础上开发的物联网平台,源码需商业授权。 环境配置 jdk安装 平台运行jdk版本需要至少11或以上。 yarn安装 Yarn和npm类似,也是一个包管理工具,旨在解决npm的一些性能问题。 npm install -g yarn yarn config set registry https...

AI大模型使用效率优化 概述 主要围绕四个核心方向: 存储效率优化 - 减少模型文件大小和内存占用 计算效率优化 - 提升推理速度和降低计算资源需求 内存效率优化 - 优化运行时内存和显存使用 部署效率优化 - 提高模型在不同平台的部署灵活性 存储效率优化 1. 知识蒸馏(Knowledge Distillation) 原理:用大模型作为”教师”,训练小模型模仿其输...

AI大模型微调 微调的作用 适应私有知识和数据 让通用模型变成从通才变成专才。 无需每次都通过 RAG(检索增强)传入上下文,降低延迟和成本。 优化推理效率与成本,提供模型推理效率 极大减少输入token数量,降低推理成本。 在不微调模型的情况下,为了让大模型生成特定风格的文本,通常需要设...