文章 视频 讲堂 百科图谱 线下集训
更多
  • 问答
  • 提问
  • 发表文章
  • 专栏
  • 活动
  • 文档
  • 工作
  • 集市
  • 发现
  • 文章
  • 问答
  • 视频
  • 讲堂
  • 线下集训
  • 专栏
  • 活动
  • 工作
  • 文档
  • 集市
搜索
  • 登录/注册
dave-patten
  • 文章
  • 专栏
  • 问答
  • 视频
  • 课程
  • 集市作品
  • 活动
  • 招聘
TA的文章 TA购买的 TA喜欢的 TA收藏的
安全托管与部署AI模型:云、边缘和本地

文章探讨了在云端、边缘和本地环境下安全部署AI模型的关键策略,分析了不同部署方式的安全风险和最佳实践,特别是介绍了零信任AI的概念及其实现方法。

AI模型  零信任AI  边缘计算  云计算  安全部署  服务器无服务器架构 
发布于 2025-02-22 16:30 阅读(512) 点赞(0) ( 5 )
分享
Twitter分享
微信扫码分享
区块链与AI相遇:链上AI代理、DeFi与Web3集成

本文探讨了人工智能(AI)与区块链技术的融合如何重塑去中心化应用、金融和治理,介绍了onchain AI agent、GOAT Toolkit、Eliza和ZKML等技术,以及它们在DeFi、智能合约和Web3中的应用。

onchain AI agents  DeFi  smart contracts  ZKML  Eliza  GOAT Toolkit 
发布于 2025-02-22 16:26 阅读(1301) 点赞(0) ( 70 )
分享
Twitter分享
微信扫码分享
对抗性人工智能与模型强化:防御攻击

本文深入探讨了人工智能模型面临的对立攻击、数据中毒和模型提取等威胁,并提供了防御策略和最佳实践,包括对抗训练、数据验证和模型加密等。

Adversarial Attacks  Data Poisoning  Model Extraction  Adversarial Training  LLM Security 
发布于 2025-02-19 17:57 阅读(1010) 点赞(0) ( 64 )
分享
Twitter分享
微信扫码分享
AI安全:保护模型免受威胁与攻击

本文探讨了AI模型在从训练到部署的整个生命周期中面临的各种安全威胁,并提出了对抗这些威胁的最佳实践和模块化安全框架。文章详细介绍了针对大型语言模型(LLM)、对抗性攻击、数据中毒、模型提取等特定威胁的防御策略,并提供了实用的安全清单。

AI安全  对抗性攻击  模型提取  LLM安全  DevSecOps  安全 
发布于 2025-02-13 16:44 阅读(962) 点赞(0) ( 52 )
分享
Twitter分享
微信扫码分享
文章删除后将不可恢复 !
删除 取消
一键转载
转载文章不用复制粘贴和编辑,输入原文链接,交给后台发布!
暂只支持: 微信公众号、Mirror、Medium的文章链接
提交后可在个人主页查看文章发布状态
提交
提交成功!
系统处理完成后将直接进入审核发布流程,可在个人主页关注文章状态。
dave-patten
dave-patten
贡献值: 45 学分: 190
江湖只有他的大名,没有他的介绍。
0 关注 1 粉丝
关于
关于我们
社区公约
学分规则
Github
伙伴们
DeCert
ChainTool
GCC
合作
广告投放
发布课程
联系我们
友情链接
关注社区
Discord
Twitter
Youtube
B 站
公众号

关注不错过动态

微信群

加入技术圈子

©2025 登链社区 版权所有 | Powered By Tipask3.5|
粤公网安备 44049102496617号 粤ICP备17140514号 粤B2-20230927 增值电信业务经营许可证

发送私信

请将文档链接发给晓娜,我们会尽快安排上架,感谢您的推荐!

提醒

检测到你当前登录的账号还未绑定手机号
请绑定后再发布
去绑定
编辑封面图
封面预览