ProxyJump
(ssh -J
) genutzt werden (ohne <>):
ssh -J <Nutzername>@andorra.imp.fu-berlin.de <Nutzername2>@<server>.imp.fu-berlin.deDabei steht "server" für das Zielgateway (s.u.),
/export
liegen soll (sondern nur dort erstellt), sondern unter
/home
, dorthin jedoch vom automounter bzw. NFS gemappt wird, muss danach noch mit usermod
das Verzeichnis
verändert werden.
# useradd -md /export/home/<username> <username> # usermod -d /home/<username> <username>Anm.: Mit
-G <additional,groups>
kann der Nutzer gleich weiteren Gruppen hinzugefügt werden.
Die generierten Zeilen in /etc/passwd
und /etc/shadow
werden dann in die NIS Quell-Dateien überpflegt
# grep ^<username>: /etc/passwd >> /var/yp/passwd= # grep ^<username>: /etc/shadow >> /var/yp/shadow=Danach werden die Nutzer auf dem regulären System außerhalb des NIS wieder gelöscht. # userdel
# cd /var/yp # /usr/ccs/bin/make passwd
Cluster | Open CCS |
virtuelle Nodes (LDoms) | Debian |
Nodes | Solaris 10 |
Hardware | T5120,T5240 (←GW) |
4-6 Ldoms pro Maschine, 4-6 Maschinen
T5120er und T5240 (←Gateway):
perf_event_open(2)
) bereit, sowie die Konsolenschnittstelle perf(1)
.
sysctl -w kernel.perf_event_paranoid=-1
perf_even_open(2)
-API einfacher zugänglich zu machen.
perf_ctr
) bereitgestellt hat um dem Kernel ein einheitliches Performance-Counter Subsystem hinzuzufügen. Dieses wurde jedoch verworfen, geblieben ist die Userspace-API, welche seit libpfm4 nicht mehr auf perfmon2/perf_ctr sondern auf perf aufbaut. perf hat hier auch die anderen APIs wie OProfile oder VTune weitestgehend abgelöst
/boot
enthält den Kernel vmlinuz
und das initial ram filesystem initrd.img
. Beides sind Symlinks auf den jeweiligen aktuellen Kernel. Es gibt keinen Bootloader wie GRUB, eine Auswahl des Bootsystems passiert über OpenBoot und dessen ok-promt über das ldom interface.
Der NIS Server sollte auf der gleichen Node laufen, wie das NFS, da NFS für die homes zuständig ist und NIS für die Nutzerverwaltung.
Auf lethe wurde der NIS Master Server eingerichtet (s. https://docs.oracle.com/cd/E18752_01/html/816-4556/cnis1-21774.html|Preparing the Master Server). Die über NIS administrierten Dateien liegen inDIR=/var/yp/sources
und die Passwd Dateien in
PWDDIR=/var/yp
. Dazu wurden wie in der obigen Anleitung alle entsprechenden Dateien von /etc/
nach
/var/yp/sources
migriert bzw. dort angelegt, sowie /var/yp/Makefile
modifiziert.
Nun muss mit die NIS Domäne gesetzt werden.
# domainname clusterdomainDanach kann das entsprechende Verzeichnes aus den Quelldateien generiert werden:
# /usr/sbin/ypinit -mUm tatsächlich auch den Nameserver zu benutzen wurde die NIS-Default NS-Switch Konfiguration benutzt und danach der Dienst aktiviert:
# cp /etc/nsswitch.nis /etc/nsswitch.conf # svcadm enable network/nis/server:defaultAuf dem Debian-Image wurde der Client eingerichtet, indem zuerst das Paket
nis
installiert und bei
der Interaktiven Konfiguration die entsprechende Domäne angegeben wurde. Danach wurde in der
YP-Konfiguration der NIS-Server eingetragen:
# echo "ypserver 10..." >> /etc/yp.confIn der Datei
/etc/nsswitch.conf
können die Dienste konfiguriert werden, die über NIS bezogen werden sollen,
indem bei den Einträgen passwd
, group
, shadow
und hosts
das Feld nis
hinten ergänzt wird.
Abschließend werden die betroffenen Dienste neugestartet.
# systemctl restart rpcbind nis
/export/home
und sollen auf den Debian-Systemen via
NFS bereitgestellt werden. Dies geschieht via Automounter on-demand, d.h. erst dann, wenn der
entsprechende Nutzer sich einloggt. Auf den Debian-Images sind hierzu die Pakete autofs
und nfs-common
notwendig.
Das Verzeichnis /home
soll durch die Konfigurationsdatei /etc/auto.home
gesteuert werden, dies
spezifizieren wiederum in /etc/auto.master
wiefolgt:
/home auto.home -nobrowseNun wird in
/etc/auto.home
konfiguriert wie diese im speziellen gemountet werden sollen. Wir
spezifizieren NFSv4 und den NFS-Server:
* -v4,defaults 10.11.103.10:/export/home/&Die Lesart ist die folgende: Der
*
matcht jede beliebige Anfrage (bspw. Nutzer koenigl
) und
das &
enthält nun diesen match und spezifiziert also, dass das entsprechende Verzeichnis auf dem
angegebenen Server unter /export/home/koenigl
zu finden ist.
3.10.9
gedowngradet. Das ist die neuste Version, welche nicht auf libdbd-mysql-perl
basiert, da diese auf sparc64 nicht die nötigen Dependencies besitzt.
2.5.39-8
gedowngradet. Mit 2.6.0 gab es Änderungen an den yyin
und yyout
Variablen, wodurch der Open CCS Tokenizer flexer.l
nicht mehr richtig funktioniert.
./configure
wurde mit folgenden Optionen aufgerufen: -enable-ccs-account=ccs:CCS
-enable-develop-mode
-enable-thread-support
(ohne diese Option kompiliert eine für das gesamte Build notwendige Bibliothek nicht)
/home/ccs/openccs
) entnommen werden. Folgende Änderungen wurden vorgenommen: LINUXSPARC64
wurde als Architektur hinzugefügt. Dies ist allerdings nur ein lazy Port: Überall wo im Source Code die Architektur LINUX64
referenziert wird, wurde dieser um LINUXSPARC64
erweitert.
''
bei der configure.ac
Variable CIS_INC
führt dazu, dass cis/
falsch gelinkt wird. Dies wurde behoben.
Makefile.am
geändert oder neu hinzugefügt, da sonst einige Bibliotheken nicht in der richtigen Reinfolge gebaut werden.
shared/rsd/parser.y
Script wurde ein Syntaxfehler behoben.
shared/evt/evt_com_xdr.c
von rpcgen mit einem Syntaxfehler generiert, dieser muss manuell behoben werden.
util/ccs_postinstall
Script wird eine Datei referenziert, die in keinster Weise im aktuellen Build existiert, daher musste das Script angepasst werden.