AI HN
AI 新闻与论文,智能精选
最新
·
HN
周报
中
EN
Loading...
Hacker News
|
Powered by Doubao
分类
◀
全部
产品
模型
工具
硬件
应用产品
研究
论文
安全
评测
理论
工程
推理
训练
部署
开源
应用
商业
讨论
时间:
今天
3天
7天
30天
全部
来源:
全部
📰
HN
📄
论文
111
条
· "Ollama"
1
Commitgen-cc – Generate Conventional Commit messages locally with Ollama
(github.com)
📰 HN
1
分
·
eagleman
·
8 天前
·
1 评论
Local AI
Commitgen-cc 是一个开源工具,使用 Ollama 在本地生成符合规范的提交信息。它允许用户不依赖外部服务就能创建标准化的提交消息。
2
My Homelab Setup
(bryananthonio.com)
📰 HN
117
分
·
photon_collider
·
8 天前
·
106 评论
Local AI
作者利用旧游戏PC搭建家庭实验室,包括硬件配置、TrueNAS操作系统安装以及Ollama(本地AI部署工具)等自托管应用。由于AI数据中心建设导致硬盘价格上涨,作者决定搭建该实验室以满足存储和备份需求。
3
Show HN: SchemaSight – Chat with your database schema locally using Ollama
(github.com)
📰 HN
1
分
·
HiteshShinde26
·
9 天前
·
0 评论
Local AI
这篇Show HN帖子介绍了SchemaSight工具,用户可通过Ollama在本地与数据库模式进行对话。该项目托管于GitHub,让开发者能借助本地AI模型支持的自然语言查询与数据库模式交互。
4
Ask HN: Are you handling persistent memory across local Ollama sessions
📰 HN
1
分
·
null-phnix
·
9 天前
·
0 评论
Local AI
一位使用Ollama构建小型本地AI工具的用户,遇到了会话间上下文和进度丢失的问题,因此向Hacker News社区询问如何处理Ollama会话间的持久化记忆。
5
Show HN: Go LLM inference with a Vulkan GPU back end that beats Ollama's CUDA
(github.com)
📰 HN
1
分
·
computerex
·
9 天前
·
0 评论
Inference Optimization
Local AI
这是一篇Show HN帖子,介绍了一个基于Go语言的LLM推理工具,该工具使用Vulkan GPU后端,据称性能优于Ollama的CUDA实现。该项目托管在GitHub上,专注于高效的AI模型推理。
6
RepoSage – Understand any codebase in minutes using Claude or local Ollama
(github.com)
📰 HN
1
分
·
saichethann
·
10 天前
·
0 评论
Anthropic & Claude
Code & Development
RepoSage 是一款工具,可帮助用户使用 Claude 或本地 Ollama 等 AI 模型在几分钟内理解任何代码库。它作为开源项目在 GitHub 上提供。
7
I Wail, for My Tailscale Fails: How My Packets Got Dropped Beyond the Pale
(jusung.dev)
📰 HN
1
分
·
badeeya
·
12 天前
·
1 评论
Local AI
作者分享了设置Ollama以实现AI自动补全功能,并在通过Tailscale访问WSL机器上的Grafana时遇到网络问题的经历。他们详细描述了使用curl测试诊断数据包丢失问题以及分析AI设置中的延迟差异等步骤。
8
Show HN: Teaching Tokens: Implementing Private, Lightweight AI in the Classroom
(medium.com)
📰 HN
1
分
·
Beckmeister
·
13 天前
·
0 评论
Local AI
这个Show HN项目介绍了MiniJarvis,一个使用Ollama和Docker的课堂私有轻量级AI解决方案。它包含一个教学计划,教教育工作者和学生如何部署本地LLM,理解LLM的关键概念(token、权重、上下文窗口),以及通过API调用与Python集成。
9
Show HN: Security Audit for Macs Running Local AI (Ollama, OpenClaw, LM Studio)
(github.com)
📰 HN
1
分
·
mrsushi
·
13 天前
·
0 评论
Apple AI
Audio & Speech
这是一个Show HN项目,展示了一款针对运行Ollama、OpenClaw和LM Studio等本地AI应用的Mac的安全审计工具。该工具旨在帮助用户评估其MacOS上本地AI设置的安全性。
10
Show HN: Glyph, a local-first Markdown notes app for macOS built with Rust
(glyphformac.com)
📰 HN
1
分
·
skarat
·
13 天前
·
0 评论
Anthropic & Claude
Audio & Speech
这篇Show HN帖子介绍了Glyph,一款基于Rust构建的macOS本地优先Markdown笔记应用。它具备AI集成功能(支持OpenAI、Anthropic、Ollama等本地模型)、维基链接、任务管理,以及无云同步和遥测的隐私优先设计。该应用是开源的,提供免费试用,并且使用纯Markdown文件以避免锁定。
11
Why Your BI Stack Knows More About Your Processes Than You Think
(exasol.com)
📰 HN
1
分
·
exagolo
·
13 天前
·
0 评论
Audio & Speech
LLM Research
本文主张商业智能团队应利用现有数据基础设施将流程挖掘纳入其技术栈。文章介绍了一个基于免费工具构建的开源演示器,并集成本地大语言模型进行AI辅助流程分析,支持流程图过滤、比较及详细流程检查等功能。
12
Show HN: Timber – Ollama for classical ML models, 336x faster than Python
(github.com)
📰 HN
1
分
·
kossisoroyce
·
15 天前
·
0 评论
Local AI
这是一篇Show HN帖子,介绍了Timber工具,该工具被描述为适用于经典机器学习模型的Ollama,声称比Python快336倍。该项目托管在GitHub上,内容部分被截断。
13
Show HN: A local AI news aggregator built with Vue 3, FastAPI, and Ollama
(github.com)
📰 HN
1
分
·
ftarants
·
15 天前
·
1 评论
Local AI
这篇Show HN帖子介绍了一个使用Vue3、FastAPI和Ollama构建的本地AI新闻聚合器。该项目托管在GitHub上,旨在提供一个本地聚合AI新闻内容的解决方案。
14
Show HN: I Built Context+ AST and Embeddings for Codebase Understanding
(contextplus.vercel.app)
📰 HN
1
分
·
forloopcodes
·
15 天前
·
0 评论
Local AI
RAG & Retrieval
这篇Show HN帖子介绍了Context+,一个用于代码库理解的MCP服务器。它结合Tree-sitter AST解析和谱聚类,将大型代码库转化为可搜索的分层图结构,支持语义搜索和静态分析等功能。用户可通过配置将其集成到IDE中,并使用Ollama模型进行嵌入和聊天操作。
15
Show HN: I built a desktop app combining Claude, GPT, Gemini with local Ollama
(github.com)
📰 HN
1
分
·
tsunamayo
·
16 天前
·
0 评论
Anthropic & Claude
Code & Development
这是一篇Show HN帖子,作者分享了名为Helix AI Studio的桌面应用,该应用整合了Claude、GPT、Gemini和本地Ollama模型。该应用托管在GitHub上,但内容被截断。
16
Ollama 0.17 ships native OpenClaw integration – security implications
(clawmoat.com)
📰 HN
1
分
·
ildar
·
17 天前
·
0 评论
Local AI
Ollama 0.17版本已原生集成OpenClaw,用户可通过一条命令搭建本地AI代理。该集成带来文件系统访问、WebSocket劫持及网页搜索提示注入等安全风险。文章建议使用ClawMoat添加权限层级和网络监控等安全层。
17
RAGScore – Evaluate RAG pipelines in 2 commands, works offline with Ollama
(github.com)
📰 HN
1
分
·
antitopquark16
·
18 天前
·
0 评论
Local AI
RAG & Retrieval
RAGScore是一个开源工具,可通过两条命令评估RAG管道。它支持与Ollama离线使用,适用于本地AI开发和测试。
18
OllamaMQ
(github.com)
📰 HN
1
分
·
chleba
·
18 天前
·
1 评论
Local AI
OllamaMQ是一个托管在GitHub上的开源项目,可能专注于将消息队列与Ollama集成以实现本地AI模型部署。该仓库为使用这些技术的开发者提供相关资源。
19
Termux Commands – Quick Reference – Phone Hacks
📰 HN
1
分
·
rocky101
·
22 天前
·
0 评论
Local AI
这篇文章提供了Termux命令的快速参考,用于在手机上使用本地AI(SLMs),包括Ollama的安装和启动服务器的命令。
20
Local LLM Setup on Windows with Ollama and LM Studio (ThinkPad / RTX A3000 GPU)
(github.com)
📰 HN
1
分
·
appsoftware
·
23 天前
·
1 评论
Audio & Speech
Local AI
这是一篇指导用户在Windows系统上使用Ollama和LM Studio设置本地LLM的教程,特别适用于配备RTX A3000 GPU的ThinkPad设备。它提供了在Windows系统上部署本地AI模型的指导说明。
21
SmallJS Release 2.0
(small-js.org)
📰 HN
1
分
·
gjvc
·
23 天前
·
0 评论
本文宣布SmallJS 2.0版本发布,新增教程和参考页面,全面支持JavaScript promises,且需Node.js v25运行。早期版本添加了Ollama集成、对话历史等AI功能,还支持通过NW.js开发多平台桌面应用。
22
Show HN: ThreadKeeper – Save and restore Windows working context with Ollama
(thethread-keeper.com)
📰 HN
1
分
·
tatsube
·
23 天前
·
0 评论
Local AI
ThreadKeeper是一款可通过快捷键保存和恢复Windows工作环境(打开的应用、标签页、剪贴板)的工具。它利用AI总结会话内容,且所有数据保存在本地以保障隐私。这篇Show HN帖子介绍了其核心功能,如一键恢复和AI驱动的上下文理解。
23
Self-Hosting LLMs with Ollama and Docker
(sitepoint.com)
📰 HN
1
分
·
mrnobody_67
·
25 天前
·
0 评论
Inference Optimization
LLM Research
本文介绍了如何使用Ollama和Docker自托管大型语言模型,涵盖本地AI模型的生产部署。
24
Ollama vs. vLLM: When to Start Scaling Your Local AI Stack
(sitepoint.com)
📰 HN
1
分
·
mrnobody_67
·
27 天前
·
0 评论
Inference Optimization
Local AI
本文比较了Ollama和vLLM,旨在帮助开发者决定何时扩展其本地AI栈。它提供了一个基于基准数据的决策框架(在相同模型、硬件和提示下测试单用户与50个并发用户),以确定Ollama的简单性何时成为负担,以及vLLM的工程开销何时对生产推理来说是合理的投资。
25
Show HN: Persistent memory for Claude Code with self-hosted Qdrant and Ollama
(github.com)
📰 HN
1
分
·
elvismdev
·
27 天前
·
0 评论
Anthropic & Claude
Code & Development
这篇Show HN帖子介绍了一个通过自托管Qdrant和Ollama为Claude Code添加持久化记忆的项目,旨在帮助Claude Code跨会话保留上下文,提升编码辅助的连续性。
26
OMLX – LLM Inference Server for Apple Silicon (Ollama for MLX)
(github.com)
📰 HN
1
分
·
fintechie
·
大约 1 个月前
·
0 评论
Apple AI
Local AI
OMLX是一款专为Apple Silicon设计的LLM推理服务器,被描述为“适用于MLX的Ollama”。该项目托管于GitHub,是开源项目,旨在支持在Apple Silicon硬件上高效部署和运行LLM。
27
Is Local Hardware Is All You Need?
(wwws.nightwatchcybersecurity.com)
📰 HN
1
分
·
nwcs
·
大约 1 个月前
·
0 评论
Apple AI
Local AI
本文探讨LLM推理与训练的未来是否依赖本地硬件,重点介绍本地推理工具栈(如llama.cpp、Ollama)的优化,包括对Apple MLX框架和AMD GPU的支持,并引用Apple M系列芯片与Google Pixel手机的计算能力数据,指出本地模型因工具和配置改进已更具实用性。
28
Show HN: Axiom – Open-source AI research agent that runs locally (C#, Ollama)
(github.com)
📰 HN
1
分
·
HexDynamics
·
大约 1 个月前
·
0 评论
Local AI
这篇Show HN帖子介绍了Axiom,一个使用C#和Ollama在本地运行的开源AI研究代理,是Hacker News上分享的社区创建项目。
29
Show HN: Umbrel Pro – 4x NVMe SSD home server (CNC aluminum and walnut)
(umbrel.com)
📰 HN
1
分
·
mayankchhabra
·
大约 1 个月前
·
0 评论
Inference Optimization
LLM Research
这个Show HN介绍了Umbrel Pro家用服务器,它采用CNC铝制和胡桃木结构,配备4个NVMe SSD插槽(最大16TB存储)和Intel Core i3-N300处理器。该服务器支持通过Ollama运行LLMs以实现本地AI部署,并提供简单的设置,可用于媒体流和比特币节点运行等自托管任务。
30
Show HN: How I built Live View for browsers running in Docker
(docs.blitzbrowser.com)
📰 HN
1
分
·
sam_march
·
大约 1 个月前
·
0 评论
Local AI
这篇Show HN帖子介绍了BlitzBrowser的创建者如何使用VNC和NoVNC为Docker容器中的浏览器构建实时视图(Live View)调试功能,实现实时可视化。该功能帮助作者快速调试基于Crawl4AI和Ollama的AI爬虫,无需依赖截图或日志即可直接与浏览器交互。帖子还概述了该功能背后的技术栈,包括X11、Fluxbox、x11vnc以及WebSocket到TCP的桥接。
1
2
3
4
第 1 / 4 页,共 111 条
📅
周报