此应用程序使用 Apple 的Core ML Stable Diffusion实现,以在基于 Apple Silicon 的 Mac 上实现最高性能和速度,同时降低内存需求。它还可以在基于 Intel 的 Mac 上运行。
特征
-
极快且内存高效(使用神经引擎约 150MB)
-
通过充分利用神经引擎在所有 Apple Silicon Mac 上运行良好
-
在本地和完全离线生成图像
-
基于现有图像生成图像(通常称为Image2Image)
-
生成的图像与 EXIF 元数据中的提示信息一起保存(在 Finder 的“获取信息”窗口中查看)
-
将生成的图像转换为高分辨率(使用 RealESRGAN)
-
自动保存和恢复图像
-
使用自定义稳定扩散核心 ML 模型
-
不用担心腌制模型
-
使用 SwiftUI 的 macOS 原生应用
首次使用模型时,神经引擎可能需要长达 2 分钟的时间来编译缓存版本。之后,后代会快得多。
计算单元
-
CPU & Neural Engine 在速度和低内存使用之间提供了良好的平衡
-
CPU & GPU 在 M1 Max、Ultra 和更高版本上可能更快,但会使用更多内存
根据选择的选项,您将需要使用正确的模型版本(有关详细信息,请参阅模型部分)。
Intel Macs 使用 CPU & GPU ,因为它没有神经引擎。
楷模
您需要转换或下载 Core ML 模型才能使用 Mochi Diffusion。
一些模型已经转换并上传 到这里。
-
转换 或下载 Core ML 模型
-
split_einsum 版本兼容所有计算单元选项,包括神经引擎
-
original 版本仅与 CPU & GPU 选项兼容
-
默认情况下,应用程序的模型文件夹将创建在 Documents 文件夹下。可以在“设置”下自定义此位置
-
在模型文件夹中,使用您希望在应用程序中显示的名称创建一个新文件夹,然后在此处移动或提取转换后的模型
-
您的目录应如下所示:
Documents/
└── MochiDiffusion/
└── models/
├── stable-diffusion-2-1_split-einsum_compiled/
│ ├── merges.txt
│ ├── TextEncoder.mlmodelc
│ ├── Unet.mlmodelc
│ ├── VAEDecoder.mlmodelc
│ ├── VAEEncoder.mlmodelc
│ └── vocab.json
├── ...
└── ...
兼容性
-
Apple Silicon(M1 及更高版本)或 Intel Mac(需要高性能 CPU 和 GPU)
-
macOS Ventura 13.1 及更高版本
-
Xcode 14.2(构建)
什么是新的
版本 3.1:
-
添加了自动选择 ML 计算单元的选项 (@vzsg)
-
添加了对恢复 jpeg 文件的支持(@vzsg)
-
将默认模型和图像文件夹目录更改为用户的主目录
-
更改导入行为以复制图像
-
更新翻译
兼容性
macOS 13.1 或更高版本。
Apple Silicon 或英特尔酷睿处理器