mirror of
https://github.com/denismhz/flake.git
synced 2025-11-09 16:16:23 +01:00
commit
259720c2cb
|
|
@ -1,4 +1,4 @@
|
|||
{ inputs, lib, ... }:
|
||||
{ config, inputs, lib, withSystem, ... }:
|
||||
|
||||
{
|
||||
perSystem = { config, pkgs, ... }: let
|
||||
|
|
@ -17,4 +17,27 @@
|
|||
};
|
||||
};
|
||||
};
|
||||
|
||||
flake.nixosModules = let
|
||||
packageModule = pkgAttrName: { pkgs, ... }: {
|
||||
services.invokeai.package = withSystem pkgs.system (
|
||||
{ config, ... }: lib.mkOptionDefault config.packages.${pkgAttrName}
|
||||
);
|
||||
};
|
||||
in {
|
||||
invokeai = ./nixos;
|
||||
invokeai-amd = {
|
||||
imports = [
|
||||
config.flake.nixosModules.invokeai
|
||||
./nixos/amd.nix
|
||||
(packageModule "invokeai-amd")
|
||||
];
|
||||
};
|
||||
invokeai-nvidia = {
|
||||
imports = [
|
||||
config.flake.nixosModules.invokeai
|
||||
(packageModule "invokeai-nvidia")
|
||||
];
|
||||
};
|
||||
};
|
||||
}
|
||||
|
|
|
|||
12
projects/invokeai/nixos/amd.nix
Normal file
12
projects/invokeai/nixos/amd.nix
Normal file
|
|
@ -0,0 +1,12 @@
|
|||
{ pkgs, ... }:
|
||||
|
||||
{
|
||||
systemd = {
|
||||
# Allow "unsupported" AMD GPUs
|
||||
services.invokeai.environment.HSA_OVERRIDE_GFX_VERSION = "10.3.0";
|
||||
# HACK: The PyTorch build we use on ROCm wants this to exist
|
||||
tmpfiles.rules = [
|
||||
"L+ /opt/amdgpu - - - - ${pkgs.libdrm}"
|
||||
];
|
||||
};
|
||||
}
|
||||
116
projects/invokeai/nixos/default.nix
Normal file
116
projects/invokeai/nixos/default.nix
Normal file
|
|
@ -0,0 +1,116 @@
|
|||
{ config, lib, ... }:
|
||||
|
||||
let
|
||||
inherit (lib)
|
||||
mkIf mkOption mkEnableOption types
|
||||
escapeShellArgs getExe optionalString
|
||||
;
|
||||
|
||||
cfg = config.services.invokeai;
|
||||
in
|
||||
|
||||
{
|
||||
options.services.invokeai = {
|
||||
enable = mkEnableOption "InvokeAI Web UI for Stable Diffusion";
|
||||
|
||||
package = mkOption {
|
||||
description = "Which InvokeAI package to use.";
|
||||
type = types.package;
|
||||
};
|
||||
|
||||
user = mkOption {
|
||||
description = "Which user to run InvokeAI as.";
|
||||
default = "invokeai";
|
||||
type = types.str;
|
||||
};
|
||||
|
||||
group = mkOption {
|
||||
description = "Which group to run InvokeAI as.";
|
||||
default = "invokeai";
|
||||
type = types.str;
|
||||
};
|
||||
|
||||
host = mkOption {
|
||||
description = "Which IP address to listen on.";
|
||||
default = "127.0.0.1";
|
||||
type = types.str;
|
||||
};
|
||||
|
||||
port = mkOption {
|
||||
description = "Which port to listen on.";
|
||||
default = 9090;
|
||||
type = types.port;
|
||||
};
|
||||
|
||||
dataDir = mkOption {
|
||||
description = "Where to store InvokeAI's state.";
|
||||
default = "/var/lib/invokeai";
|
||||
type = types.path;
|
||||
};
|
||||
|
||||
maxLoadedModels = mkOption {
|
||||
description = "Maximum amount of models to keep in VRAM at once.";
|
||||
default = 1;
|
||||
type = types.ints.positive;
|
||||
};
|
||||
|
||||
nsfwChecker = mkEnableOption "the NSFW Checker";
|
||||
|
||||
precision = mkOption {
|
||||
description = "Set model precision.";
|
||||
default = "auto";
|
||||
type = types.enum [ "auto" "float32" "autocast" "float16" ];
|
||||
};
|
||||
|
||||
extraArgs = mkOption {
|
||||
description = "Extra command line arguments.";
|
||||
default = [];
|
||||
type = with types; listOf str;
|
||||
};
|
||||
};
|
||||
|
||||
config = let
|
||||
|
||||
yesno = enable: text: "--${optionalString (!enable) "no-"}${text}";
|
||||
|
||||
cliArgs = [
|
||||
"--web"
|
||||
"--host" cfg.host
|
||||
"--port" cfg.port
|
||||
"--root_dir" cfg.dataDir
|
||||
"--max_loaded_models" cfg.maxLoadedModels
|
||||
(yesno cfg.nsfwChecker "nsfw_checker")
|
||||
"--precision" cfg.precision
|
||||
] ++ cfg.extraArgs;
|
||||
initialModelsPath = "${cfg.package}/${cfg.package.pythonModule.sitePackages}/invokeai/configs/INITIAL_MODELS.yaml";
|
||||
in mkIf cfg.enable {
|
||||
users.users = mkIf (cfg.user == "invokeai") {
|
||||
invokeai = {
|
||||
isSystemUser = true;
|
||||
inherit (cfg) group;
|
||||
};
|
||||
};
|
||||
users.groups = mkIf (cfg.group == "invokeai") {
|
||||
invokeai = {};
|
||||
};
|
||||
systemd.services.invokeai = {
|
||||
after = [ "network.target" ];
|
||||
wantedBy = [ "multi-user.target" ];
|
||||
preStart = ''
|
||||
ln -sf ${initialModelsPath} '${cfg.dataDir}/configs/INITIAL_MODELS.yaml'
|
||||
cp -L --no-clobber --no-preserve=mode ${initialModelsPath} '${cfg.dataDir}/configs/models.yaml'
|
||||
'';
|
||||
environment.HOME = "${cfg.dataDir}/.home";
|
||||
serviceConfig = {
|
||||
User = cfg.user;
|
||||
Group = cfg.group;
|
||||
ExecStart = "${getExe cfg.package} ${escapeShellArgs cliArgs}";
|
||||
};
|
||||
};
|
||||
systemd.tmpfiles.rules = [
|
||||
"d '${cfg.dataDir}' 0755 ${cfg.user} ${cfg.group} - -"
|
||||
"d '${cfg.dataDir}/configs' 0755 ${cfg.user} ${cfg.group} - -"
|
||||
"d '${cfg.dataDir}/.home' 0750 ${cfg.user} ${cfg.group} - -"
|
||||
];
|
||||
};
|
||||
}
|
||||
|
|
@ -1,4 +1,4 @@
|
|||
{ inputs, lib, ... }:
|
||||
{ config, inputs, lib, withSystem, ... }:
|
||||
|
||||
{
|
||||
perSystem = { config, pkgs, ... }: let
|
||||
|
|
@ -17,4 +17,27 @@
|
|||
};
|
||||
};
|
||||
};
|
||||
|
||||
flake.nixosModules = let
|
||||
packageModule = pkgAttrName: { pkgs, ... }: {
|
||||
services.koboldai.package = withSystem pkgs.system (
|
||||
{ config, ... }: lib.mkOptionDefault config.packages.${pkgAttrName}
|
||||
);
|
||||
};
|
||||
in {
|
||||
koboldai = ./nixos;
|
||||
koboldai-amd = {
|
||||
imports = [
|
||||
config.flake.nixosModules.koboldai
|
||||
./nixos/amd.nix
|
||||
(packageModule "koboldai-amd")
|
||||
];
|
||||
};
|
||||
koboldai-nvidia = {
|
||||
imports = [
|
||||
config.flake.nixosModules.koboldai
|
||||
(packageModule "koboldai-nvidia")
|
||||
];
|
||||
};
|
||||
};
|
||||
}
|
||||
|
|
|
|||
12
projects/koboldai/nixos/amd.nix
Normal file
12
projects/koboldai/nixos/amd.nix
Normal file
|
|
@ -0,0 +1,12 @@
|
|||
{ pkgs, ... }:
|
||||
|
||||
{
|
||||
systemd = {
|
||||
# Allow "unsupported" AMD GPUs
|
||||
services.koboldai.environment.HSA_OVERRIDE_GFX_VERSION = "10.3.0";
|
||||
# HACK: The PyTorch build we use on ROCm wants this to exist
|
||||
tmpfiles.rules = [
|
||||
"L+ /opt/amdgpu - - - - ${pkgs.libdrm}"
|
||||
];
|
||||
};
|
||||
}
|
||||
87
projects/koboldai/nixos/default.nix
Normal file
87
projects/koboldai/nixos/default.nix
Normal file
|
|
@ -0,0 +1,87 @@
|
|||
{ config, lib, ... }:
|
||||
|
||||
let
|
||||
inherit (lib)
|
||||
mkIf mkOption mkEnableOption types
|
||||
escapeShellArgs getExe optional
|
||||
;
|
||||
|
||||
cfg = config.services.koboldai;
|
||||
in
|
||||
|
||||
{
|
||||
options.services.koboldai= {
|
||||
enable = mkEnableOption "KoboldAI Web UI";
|
||||
|
||||
package = mkOption {
|
||||
description = "Which KoboldAI package to use.";
|
||||
type = types.package;
|
||||
};
|
||||
|
||||
user = mkOption {
|
||||
description = "Which user to run KoboldAI as.";
|
||||
default = "koboldai";
|
||||
type = types.str;
|
||||
};
|
||||
|
||||
group = mkOption {
|
||||
description = "Which group to run KoboldAI as.";
|
||||
default = "koboldai";
|
||||
type = types.str;
|
||||
};
|
||||
|
||||
host = mkOption {
|
||||
description = "Whether to make KoboldAI remotely accessible.";
|
||||
default = false;
|
||||
type = types.bool;
|
||||
};
|
||||
|
||||
port = mkOption {
|
||||
description = "Which port to listen on.";
|
||||
default = 5000;
|
||||
type = types.port;
|
||||
};
|
||||
|
||||
dataDir = mkOption {
|
||||
description = "Where to store KoboldAI's state.";
|
||||
default = "/var/lib/koboldai";
|
||||
type = types.path;
|
||||
};
|
||||
|
||||
extraArgs = mkOption {
|
||||
description = "Extra command line arguments.";
|
||||
default = [];
|
||||
type = with types; listOf str;
|
||||
};
|
||||
};
|
||||
|
||||
config = let
|
||||
cliArgs = (optional cfg.host "--host") ++ [
|
||||
"--port" cfg.port
|
||||
] ++ cfg.extraArgs;
|
||||
in mkIf cfg.enable {
|
||||
users.users = mkIf (cfg.user == "koboldai") {
|
||||
koboldai = {
|
||||
isSystemUser = true;
|
||||
inherit (cfg) group;
|
||||
};
|
||||
};
|
||||
users.groups = mkIf (cfg.group == "koboldai") {
|
||||
koboldai = {};
|
||||
};
|
||||
systemd.services.koboldai = {
|
||||
after = [ "network.target" ];
|
||||
wantedBy = [ "multi-user.target" ];
|
||||
environment.HOME = cfg.dataDir;
|
||||
serviceConfig = {
|
||||
User = cfg.user;
|
||||
Group = cfg.group;
|
||||
ExecStart = "${getExe cfg.package} ${escapeShellArgs cliArgs}";
|
||||
PrivateTmp = true;
|
||||
};
|
||||
};
|
||||
systemd.tmpfiles.rules = [
|
||||
"d '${cfg.dataDir}' 0755 ${cfg.user} ${cfg.group} - -"
|
||||
];
|
||||
};
|
||||
}
|
||||
Loading…
Reference in a new issue