wip k3s cluster
This commit is contained in:
parent
3124436b46
commit
bef9d8c474
5 changed files with 129 additions and 26 deletions
|
@ -3,7 +3,9 @@ http:
|
||||||
k3s:
|
k3s:
|
||||||
loadBalancer:
|
loadBalancer:
|
||||||
servers:
|
servers:
|
||||||
- url: http://jefke.dmz
|
# TODO: This WILL break when the cluster is reprovisioned and another IP addrss is chosen.
|
||||||
|
# The load balancer service for Traefik is automatically provisioned by k3s, unsure how to statically assign the IP address.
|
||||||
|
- url: http://192.168.40.101
|
||||||
esrom:
|
esrom:
|
||||||
loadBalancer:
|
loadBalancer:
|
||||||
servers:
|
servers:
|
||||||
|
|
|
@ -52,7 +52,7 @@
|
||||||
./nix/flake/checks.nix
|
./nix/flake/checks.nix
|
||||||
./nix/flake/deploy.nix
|
./nix/flake/deploy.nix
|
||||||
./nix/flake/nixos.nix
|
./nix/flake/nixos.nix
|
||||||
./nix/flake/kubenix.nix
|
./nix/flake/kubenix
|
||||||
] // (flake-utils.lib.eachDefaultSystem (system: {
|
] // (flake-utils.lib.eachDefaultSystem (system: {
|
||||||
formatter = nixpkgs.legacyPackages.${system}.nixfmt;
|
formatter = nixpkgs.legacyPackages.${system}.nixfmt;
|
||||||
}));
|
}));
|
||||||
|
|
|
@ -4,27 +4,31 @@
|
||||||
specialArgs.flake = self;
|
specialArgs.flake = self;
|
||||||
|
|
||||||
module = { kubenix, ... }: {
|
module = { kubenix, ... }: {
|
||||||
imports = [ kubenix.modules.k8s kubenix.modules.helm ];
|
imports = [
|
||||||
|
kubenix.modules.k8s
|
||||||
|
kubenix.modules.helm
|
||||||
|
# ./freshrss.nix
|
||||||
|
];
|
||||||
kubernetes.kubeconfig = "~/.kube/config";
|
kubernetes.kubeconfig = "~/.kube/config";
|
||||||
kubenix.project = "home";
|
kubenix.project = "home";
|
||||||
|
|
||||||
kubernetes = {
|
kubernetes = {
|
||||||
namespace = "kubenix";
|
# namespace = "kubenix";
|
||||||
|
|
||||||
customTypes = {
|
customTypes = {
|
||||||
# HACK: These are dummy custom types.
|
# HACK: These are dummy custom types.
|
||||||
# This is needed, because the CRDs imported as a chart are not available as Nix modules
|
# This is needed, because the CRDs imported as a chart are not available as Nix modules.
|
||||||
# There is no validation whatsoever on resources defined using these types!
|
# There is no nix-based validation on resources defined using these types!
|
||||||
# See: https://github.com/hall/kubenix/issues/34
|
# See: https://github.com/hall/kubenix/issues/34
|
||||||
ipaddresspool = {
|
ipAddressPool = {
|
||||||
attrName = "ipaddresspools";
|
attrName = "ipAddressPools";
|
||||||
group = "metallb.io";
|
group = "metallb.io";
|
||||||
version = "v1beta1";
|
version = "v1beta1";
|
||||||
kind = "IPAddressPool";
|
kind = "IPAddressPool";
|
||||||
};
|
};
|
||||||
|
|
||||||
l2advertisement = {
|
l2Advertisement = {
|
||||||
attrName = "l2advertisements";
|
attrName = "l2Advertisements";
|
||||||
group = "metallb.io";
|
group = "metallb.io";
|
||||||
version = "v1beta1";
|
version = "v1beta1";
|
||||||
kind = "L2Advertisement";
|
kind = "L2Advertisement";
|
||||||
|
@ -32,16 +36,15 @@
|
||||||
};
|
};
|
||||||
|
|
||||||
resources = {
|
resources = {
|
||||||
namespaces = {
|
# namespaces = {
|
||||||
kubenix = { };
|
# kubenix = { };
|
||||||
|
|
||||||
metallb-system.metadata.labels = {
|
|
||||||
"pod-security.kubernetes.io/enforce" = "privileged";
|
|
||||||
"pod-security.kubernetes.io/audit" = "privileged";
|
|
||||||
"pod-security.kubernetes.io/warn" = "privileged";
|
|
||||||
};
|
|
||||||
};
|
|
||||||
|
|
||||||
|
# metallb-system.metadata.labels = {
|
||||||
|
# "pod-security.kubernetes.io/enforce" = "privileged";
|
||||||
|
# "pod-security.kubernetes.io/audit" = "privileged";
|
||||||
|
# "pod-security.kubernetes.io/warn" = "privileged";
|
||||||
|
# };
|
||||||
|
# };
|
||||||
|
|
||||||
deployments.cyberchef.spec = {
|
deployments.cyberchef.spec = {
|
||||||
replicas = 3;
|
replicas = 3;
|
||||||
|
@ -91,17 +94,18 @@
|
||||||
}];
|
}];
|
||||||
};
|
};
|
||||||
|
|
||||||
ipaddresspools.main = {
|
ipAddressPools.main = {
|
||||||
metadata.namespace = "metallb-system";
|
# metadata.namespace = "metallb-system";
|
||||||
spec.addresses = [ "192.168.40.100-192.168.40.253" ];
|
spec.addresses = [ "192.168.40.100-192.168.40.254" ];
|
||||||
};
|
};
|
||||||
|
|
||||||
l2advertisements.main.metadata.namespace = "metallb-system";
|
# l2Advertisements.main.metadata.namespace = "metallb-system";
|
||||||
|
l2Advertisements.main.metadata = { };
|
||||||
};
|
};
|
||||||
|
|
||||||
helm.releases.metallb = {
|
helm.releases.metallb = {
|
||||||
chart = nixhelm.chartsDerivations.${system}.metallb.metallb;
|
chart = nixhelm.chartsDerivations.${system}.metallb.metallb;
|
||||||
namespace = "metallb-system";
|
# namespace = "metallb-system";
|
||||||
includeCRDs = true;
|
includeCRDs = true;
|
||||||
};
|
};
|
||||||
};
|
};
|
97
nix/flake/kubenix/freshrss.nix
Normal file
97
nix/flake/kubenix/freshrss.nix
Normal file
|
@ -0,0 +1,97 @@
|
||||||
|
{
|
||||||
|
kubernetes.resources = {
|
||||||
|
configMaps.freshrss.data = {
|
||||||
|
TZ = "Europe/Amsterdam";
|
||||||
|
CRON_MIN = "2,32";
|
||||||
|
ADMIN_EMAIL = "pim@kunis.nl";
|
||||||
|
PUBLISHED_PORT = "443";
|
||||||
|
};
|
||||||
|
|
||||||
|
secrets.freshrss.stringData.adminPassword = "ref+file:///home/pim/.config/home/vals.yaml";
|
||||||
|
|
||||||
|
persistentVolumeClaims.freshrss.spec = {
|
||||||
|
accessModes = [ "ReadWriteOnce" ];
|
||||||
|
storageClassName = "local-path";
|
||||||
|
resources.requests.storage = "1Mi";
|
||||||
|
};
|
||||||
|
|
||||||
|
deployments.freshrss = {
|
||||||
|
metadata.labels.app = "freshrss";
|
||||||
|
|
||||||
|
spec = {
|
||||||
|
selector.matchLabels.app = "freshrss";
|
||||||
|
|
||||||
|
template = {
|
||||||
|
metadata.labels.app = "freshrss";
|
||||||
|
|
||||||
|
spec = {
|
||||||
|
containers.freshrss = {
|
||||||
|
image = "freshrss/freshrss:edge";
|
||||||
|
|
||||||
|
ports = [{
|
||||||
|
containerPort = 80;
|
||||||
|
protocol = "TCP";
|
||||||
|
}];
|
||||||
|
|
||||||
|
envFrom = [{ configMapRef.name = "freshrss"; }];
|
||||||
|
env = [
|
||||||
|
{
|
||||||
|
name = "ADMIN_PASSWORD";
|
||||||
|
valueFrom.secretKeyRef = {
|
||||||
|
name = "freshrss";
|
||||||
|
key = "adminPassword";
|
||||||
|
};
|
||||||
|
}
|
||||||
|
{
|
||||||
|
name = "ADMIN_API_PASSWORD";
|
||||||
|
valueFrom.secretKeyRef = {
|
||||||
|
name = "freshrss";
|
||||||
|
key = "adminPassword";
|
||||||
|
};
|
||||||
|
}
|
||||||
|
];
|
||||||
|
|
||||||
|
volumeMounts = [{
|
||||||
|
name = "data";
|
||||||
|
mountPath = "/var/www/FreshRSS/data";
|
||||||
|
}];
|
||||||
|
};
|
||||||
|
|
||||||
|
volumes = [{
|
||||||
|
name = "data";
|
||||||
|
persistentVolumeClaim.claimName = "freshrss";
|
||||||
|
}];
|
||||||
|
};
|
||||||
|
};
|
||||||
|
};
|
||||||
|
};
|
||||||
|
|
||||||
|
services.freshrss.spec = {
|
||||||
|
selector.app = "freshrss";
|
||||||
|
|
||||||
|
ports = [{
|
||||||
|
protocol = "TCP";
|
||||||
|
port = 80;
|
||||||
|
targetPort = 80;
|
||||||
|
}];
|
||||||
|
};
|
||||||
|
|
||||||
|
ingresses.freshrss.spec = {
|
||||||
|
ingressClassName = "traefik";
|
||||||
|
|
||||||
|
rules = [{
|
||||||
|
host = "freshrss.k3s.kun.is";
|
||||||
|
|
||||||
|
http.paths = [{
|
||||||
|
path = "/";
|
||||||
|
pathType = "Prefix";
|
||||||
|
|
||||||
|
backend.service = {
|
||||||
|
name = "freshrss";
|
||||||
|
port.number = 80;
|
||||||
|
};
|
||||||
|
}];
|
||||||
|
}];
|
||||||
|
};
|
||||||
|
};
|
||||||
|
}
|
|
@ -20,7 +20,7 @@ in {
|
||||||
services.k3s = {
|
services.k3s = {
|
||||||
enable = true;
|
enable = true;
|
||||||
role = "server";
|
role = "server";
|
||||||
extraFlags = "--tls-san ${config.networking.fqdn} --data-dir ${config.lab.storage.dataMountPoint}/k3s";
|
extraFlags = "--tls-san ${config.networking.fqdn}";
|
||||||
};
|
};
|
||||||
|
|
||||||
system.activationScripts.k3s-bootstrap.text =
|
system.activationScripts.k3s-bootstrap.text =
|
||||||
|
@ -30,7 +30,7 @@ in {
|
||||||
}).config.kubernetes.result;
|
}).config.kubernetes.result;
|
||||||
in
|
in
|
||||||
''
|
''
|
||||||
ln -sf ${k3sBootstrapFile} ${config.lab.storage.dataMountPoint}/k3s/server/manifests/k3s-bootstrap.json
|
ln -sf ${k3sBootstrapFile} /var/lib/rancher/k3s/server/manifests/k3s-bootstrap.json
|
||||||
'';
|
'';
|
||||||
};
|
};
|
||||||
}
|
}
|
||||||
|
|
Loading…
Reference in a new issue