IPEX-LLM 是一个PyTorch library,用于在Intel CPU和GPU上运行 LLM,适用的平台包括搭载集成显卡的个人电脑,配有 Arc/Flex/Max 等独立显卡的台式机等。这意味着用户可以在价格更亲民的笔记本或台式机上实现极低延迟的 LLM 本地运行,无需投资昂贵的硬件就可以进行LLM应用创新,从而令更多人从开源大语言模型的快速发展中受益。本项目希望学生将社区第三方开源应用项目和IPEX-LLM进行适配,使得该应用项目可以在Intel的平台上部署和高效使用。成果包括:项目适配IPEX-LLM的代码修改,部署教程文档,在Intel平台上演示Demo。可选第三方应用包括:
- LlocalSearch: https://github.com/nilsherzig/LLocalSearch
- QAnything: https://github.com/netease-youdao/QAnything
-
AnythingLLM: https://github.com/Mintplex-Labs/anything-llm
- gpt-academic: https://github.com/binary-husky/gpt_academic/
- AIOS: https://github.com/agiresearch/AIOS
- Quivr: https://github.com/QuivrHQ/quivr
- FauxPilot: https://github.com/fauxpilot/fauxpilot