Jabber:Server: Unterschied zwischen den Versionen

Aus Wiki Freifunk-3Ländereck
Wechseln zu: Navigation, Suche
(Proxy zur Weiterleitung der Web-Oberfläche)
(Installation und Grundkonfiguration)
 
(9 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 45: Zeile 45:
 
                         register
 
                         register
 
                         ]}
 
                         ]}
 +
 +
Falls wir ein eigenes TLS/SSL-Zertifikat für die Domain <domain> erstellt haben, konfigurieren wir dieses mit der folgenden zusätzlichen Zeile. Die PEM-Datei "<domain.pem>" enthält hierbei zuerst den privaten Schlüssel, gefolgt von dem eigentlichen Zertifikat. Bei der Installation ist darauf zu achten, dass die Datei ''root.ejabberd'' gehört und nicht für andere lesbar ist:
 +
 +
{domain_certfile, "<domain>", "/etc/ejabberd/<domain.pem>"}.
 +
 +
Passwörter werden in der Standardeinstellung im Klartext abgespeichert und können so von den Administratoren abgefragt und im schlimmsten Fall von Angreifern entwendet werden. Um dies zu verhindern, aktivieren wir das SCRAM-Authentifizierungsverfahren:
 +
 +
{auth_password_format, scram}.
  
 
Benutzern soll es prinzipiell erlaubt sein, sich selbst mittels ihrer Klienten zu registrieren:
 
Benutzern soll es prinzipiell erlaubt sein, sich selbst mittels ihrer Klienten zu registrieren:
Zeile 220: Zeile 228:
 
Ob wir erfolgreich waren, können wir bequem über die Web-Oberfläche von ''ejabberd'' abfragen. Hierzu öffnen wir den Link ''<nowiki>http://<domain>:5280/admin/</nowiki>'' und authentifizieren uns als Administrator. Unter dem Menü-Punkt ''Nodes'' sollten ab sofort zwei Knoten ähnlich dem folgenden Bildschirmfoto dargestellt werden:
 
Ob wir erfolgreich waren, können wir bequem über die Web-Oberfläche von ''ejabberd'' abfragen. Hierzu öffnen wir den Link ''<nowiki>http://<domain>:5280/admin/</nowiki>'' und authentifizieren uns als Administrator. Unter dem Menü-Punkt ''Nodes'' sollten ab sofort zwei Knoten ähnlich dem folgenden Bildschirmfoto dargestellt werden:
  
[[File:Ejabberd_nodes.png]]
+
[[Datei:Ejabberd_nodes.png]]
  
Um den Cluster als solchen zu nutzen fehlt nur noch ein Round-Robin DNS-Eintrag für die gemeinsame Domain <joint_domain>, welcher auf die beide Knoten verweist mittels ihrer IP-Adressen verweist.
+
Als letzte Tat wählen wir noch den Untermenü-Punkt ''Database'' für unseren neu installierten Knoten unter dem Hauptmenü-Punkt ''Nodes''. Standardmäßig werden die gemeinsamen Tabellen auf dem neuen Knoten lediglich als "Remote Copy" vorgehalten und damit über das Netzwerk abgefragt. Um die Daten auch lokal und damit redundant zu sichern, passen wir den "Storage Type" den Einstellungen des primär installierten Knotens an. Eine Übersicht gibt das nachfolgende Bildschirmfoto:
 +
 
 +
[[Datei:Ejabberd database.png]]
 +
 
 +
Um den Cluster auch als solchen nutzen zu können, fehlt nur noch ein Round-Robin DNS-Eintrag für die gemeinsame Domain <joint_domain>, welcher auf alle Knoten verweist. Alternativ kann ein TCP-Proxy auf einem zentralen Router/Gateway installiert werden. Als dritte Möglichkeit können sich die Klienten explizit mit einem der Knoten über den entsprechenden Hostnamen verbinden ("Connection Host").
  
 
= Datenbank zurücksetzen =
 
= Datenbank zurücksetzen =
Zeile 295: Zeile 307:
 
Ab sofort sollten auf dem Gateway eingehende Klienten- und Serververbindungen auf die Knoten verteilt werden.
 
Ab sofort sollten auf dem Gateway eingehende Klienten- und Serververbindungen auf die Knoten verteilt werden.
  
== Proxy zur Weiterleitung der Web-Oberfläche ==
+
=Proxy zur Weiterleitung der Web-Oberfläche=
Der ''ejabberd'' bietet eine komfortable Web-Oberfläche zur Administration und Registrierung von Benutzern. Da die Knoten im Normalfall jedoch innerhalb des Freifunknetzes laufen, ist diese nicht aus dem Internet zu erreichen. Eine weitere Limitierung ist, dass das Modul zur Registrierung von Benutzern immer den Hostnamen des HTTP-Requests verwendet. Entsprechend macht es Sinn auf dem gleichen Gateway, auf welchem auch der HAProxy läuft, einen ''Reverse Proxy'' einzurichten. Da im Normalfall bereits ein Aapache2 Web-Server vorhanden ist, werden wir diesen für die Einrichtung des ''Reverse Proxy'' verwenden.
+
Der ''ejabberd'' bietet eine komfortable Web-Oberfläche zur Administration und Registrierung von Benutzern. Da die Knoten im Normalfall jedoch innerhalb des Freifunknetzes laufen, ist diese nicht aus dem Internet zu erreichen. Eine weitere Limitierung ist, dass das Modul zur Registrierung von Benutzern immer den Hostnamen des HTTP-Requests verwendet. Entsprechend macht es Sinn, auf dem gleichen Gateway, auf welchem auch der HAProxy läuft, einen ''Reverse Proxy'' einzurichten. Da im Normalfall bereits ein Aapache2 Web-Server vorhanden ist, werden wir diesen für die Einrichtung des ''Reverse Proxy'' verwenden.
Zunächst aktivieren wir das Modul ''mod_rewrite'':
+
Zunächst installieren wir das optionale Modul ''proxy-html'':
 +
 
 +
apt-get install libapache2-mod-proxy-html
 +
 
 +
Danach aktivieren wir das Modul ''rewrite'' sowie die Module ''proxy'' und ''proxy-html'' für die Proxy-Funktion:
  
  a2enmod rewrite
+
  a2enmod rewrite proxy proxy-html
  
 
Falls SSL noch nicht aktiviert wurde, benötigen wir zusätzlich:
 
Falls SSL noch nicht aktiviert wurde, benötigen wir zusätzlich:
Zeile 306: Zeile 322:
 
  a2ensite default-ssl
 
  a2ensite default-ssl
  
Danach legen wir eine neue Site ''ejabberd'' unter ''/etc/apache2/sites-available'' an. In dieser erstellen wir zwei ''VirtualHosts'' für die Jabber-Domain ''<jabber_domain>''. Der ''VirtualHost'' auf Port 80 hat lediglich den Zweck, Anfragen via HTTP auf HTTPS umzuschreiben. Der ''VirtualHost'' auf Port 443 übernimmt dann die eigentliche Aufgabe der Weiterleitung auf den Jabber-Knoten ''<jabber_node>''.  Die Wahl des Knoten ist hierbei beliebig, da sich die Knoten in einem Cluster befinden. Die Platzhalter für das SSL-Zertifikat ''<myssl.cert>'' und den SSL-Schlüssel ''<myssl.key>'' sind den lokalen Gegebenheiten anzupassen:
+
Danach legen wir eine neue Site ''ejabberd'' unter ''/etc/apache2/sites-available'' an. In dieser erstellen wir zwei ''VirtualHosts'' für die Jabber-Domain ''<jabber_domain>''. Der ''VirtualHost'' auf Port 80 hat lediglich den Zweck, Anfragen via HTTP auf HTTPS umzuschreiben. Der ''VirtualHost'' auf Port 443 übernimmt dann die eigentliche Aufgabe der Weiterleitung auf den Jabber-Knoten ''<jabber_node>''.  Die Wahl des Knoten ist hierbei beliebig, da sich die Knoten in einem Cluster befinden. Die Platzhalter für das SSL-Zertifikat ''<myssl.cert>'' und den SSL-Schlüssel ''<myssl.key>'' sind den lokalen Gegebenheiten anzupassen. Der letzte Abschnitt dient dazu, absolute URLs umzuschreiben. Dies ist notwendig, um auf das Captcha zuzugreifen:
  
 
  <VirtualHost *:80>
 
  <VirtualHost *:80>
Zeile 336: Zeile 352:
 
     <nowiki>ProxyPass / https://<jabber_node>:5280/</nowiki>
 
     <nowiki>ProxyPass / https://<jabber_node>:5280/</nowiki>
 
     <nowiki>ProxyPassReverse / https://<jabber_node>:5280/</nowiki>
 
     <nowiki>ProxyPassReverse / https://<jabber_node>:5280/</nowiki>
 +
 +
    SetOutputFilter proxy-html
 +
    <nowiki>ProxyHTMLURLMap https://<jabber_node>:5280 https://<jabber_domain></nowiki>
 +
    RequestHeader unset  Accept-Encoding
 
  </VirtualHost>
 
  </VirtualHost>
  

Aktuelle Version vom 10. April 2015, 20:24 Uhr

XMPP-Server gibt es an der Zahl viele. Ein populärer, freier XMPP-Server ist ejabberd. Ejabberd ist unter Windows und Unix-Derivaten verfügbar. Neben diversen Modulen und Transports unterstützt ejabberd die Einrichtung von Clustern, so dass durch den Parallelbetrieb mehrerer Server eine hohe Ausfallsicherheit erzeugt werden kann. Im Folgenden wird die Installation und Einrichtung unter Debian Wheezy als Benutzer root beschrieben.

Installation und Grundkonfiguration

Als erstes installieren wir das Paket mit dem Server und ImageMagick, welches für die Erstellung der Captchas benötigt wird:

 apt-get install ejabberd imagemagick

Im Anchluss führen wir eine Grundkonfiguration durch:

 dpkg-reconfigure ejabberd

Im Zuge der Grundkonfiguration geben wir die Domain <domain> des Servers, sowie einen Namen für den Administrator <administrator> sowie ein Passwort ein. Debconf nimmt im Anschluss automatisch die notwendigen Änderungen in der zentralen Konfigurationsdatei /etc/ejabberd/ejabberd.cfg vor. Dort sollten wir nach Abschluss der Grundkonfiguration den folgenden Abschnitt finden:

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%% Options which are set by Debconf and managed by ucf

%% Admin user
{acl, admin, {user, "<administrator>", "<domain>"}}.

%% Hostname
{hosts, ["<domain>"]}.

Da dies noch nicht ausreichend ist, öffnen wir die Konfigurationsdatei /etc/ejabberd/ejabberd.cfg im Anschluss mit dem Editor unserer Wahl und bessern an einigen Stellen nach. Damit wir als Administrator informiert werden, wenn der ejabberd-Prozess außer Kontrolle gerät, aktivieren wir den Watchdog:

%%
%% watchdog_admins: If an ejabberd process consumes too much memory,
%% send live notifications to those Jabber accounts.
%%
{watchdog_admins, ["<admin>@<domain>"]}.

Weiterhin wollen wir ejabberd über die eingebaute Web-Oberfläche konfigurieren können und Nutzern die Möglichkeit zur Web-basierten Registrierung bieten. Hierfür aktiviern wir den eingebauten Web-Server mit den entsprechenden Modulen. Durch Hinzufügen der Zeile tls, {certfile, "/etc/ejabberd/ejabberd.pem"} erzwingen wir die Verwendung von TLS:

{5280, ejabberd_http, [
                        tls, {certfile, "/etc/ejabberd/ejabberd.pem"},
                        {request_handlers,
                         [
                          {["pub", "archive"], mod_http_fileserver}
                         ]},
                        captcha,
                        http_bind,
                        http_poll,
                        web_admin,
                        register
                       ]}

Falls wir ein eigenes TLS/SSL-Zertifikat für die Domain <domain> erstellt haben, konfigurieren wir dieses mit der folgenden zusätzlichen Zeile. Die PEM-Datei "<domain.pem>" enthält hierbei zuerst den privaten Schlüssel, gefolgt von dem eigentlichen Zertifikat. Bei der Installation ist darauf zu achten, dass die Datei root.ejabberd gehört und nicht für andere lesbar ist:

{domain_certfile, "<domain>", "/etc/ejabberd/<domain.pem>"}.

Passwörter werden in der Standardeinstellung im Klartext abgespeichert und können so von den Administratoren abgefragt und im schlimmsten Fall von Angreifern entwendet werden. Um dies zu verhindern, aktivieren wir das SCRAM-Authentifizierungsverfahren:

{auth_password_format, scram}.

Benutzern soll es prinzipiell erlaubt sein, sich selbst mittels ihrer Klienten zu registrieren:

%% No username can be registered via in-band registration:  
%% To enable in-band registration, replace 'deny' with 'allow'
% (note that if you remove mod_register from modules list then users will not
% be able to change their password as well as register).
% This setting is default because it's more safe.
{access, register, [{allow, all}]}.

Statt Englisch möchten wir Deutsch als Standardsprache für alle Meldungen:

%%
%% language: Default language used for server messages.
%%
{language, "de"}.

Um die Registrierung von Benutzern vor Bots zu schützen, aktivieren wir die Erstellung von Captchas:

{captcha_cmd, "/usr/lib/ejabberd/priv/bin/captcha.sh"}.

Um sicherzustellen, dass die Erstellung der Captchas auch funktioniert, empfiehlt sich ein Test der Befehlszeile /usr/lib/ejabberd/priv/bin/captcha.sh in der Konsole als Benutzer ejabberd. Weiterhin passen wir den URL für das Captcha an, welcher an die Klienten übermittelt wird:

{captcha_host, "https://<domain>:5280"}.

Zuletzt stellen wir noch sicher, dass das Modul mod_register für die Benutzerregistrierung aktiviert ist und tragen unter registration_watchers unseren Administrator ein. In Zukunft sollten wir informiert werden, nachdem sich ein Benutzer registriert hat. Mittels ip_access beschränken wir die Selbstregistrierung auf das Freifunknetz. Weiterhin aktivieren mit der Direktive captcha_protected die Verwendung eines Captcha. Durch hinzufügen der letzten Zeile aktivieren wir zusätzlich das Modul mode_register_web, welches für für die Web-basierte Registrierung benötigt wird.

{mod_register, [
                 %%
                 %% After successful registration, the user receives
                 %% a message with this subject and body.
                 %%
                 {welcome_message, {"Welcome!",
                                    "Welcome to a Jabber service powered by Debian. "
                                    "For information about Jabber visit "
                                    "http://www.jabber.org"}},
                 %% Replace it with 'none' if you don't want to send such message:
                 %%{welcome_message, none},

                 %%
                 %% When a user registers, send a notification to
                 %% these Jabber accounts.
                 %%
                 {registration_watchers, ["<admin>@<domain>"]},
                 {ip_access, [{allow, "10.119.0.0/16"}]},
                 {access, register},
                 {captcha_protected, true}
                ]},
{mod_register_web, []},

Im Anschluss starten wir ejabberd erneut, damit die Änderungen übernommen werden:

service ejabberd restart

Im Normalfall sollte unser Rechner durch eine Firewall geschützt sein. Damit ejabberd funktionieren kann, müssen die Ports 5222, 5269 und 5280 für eingehende Verbindungen geöffnet werden. Falls die Uncomplicated Firewall verwendet wird, gelingt dies mit:

ufw allow 5222 # client connections
ufw allow 5269 # server connections
ufw allow 5280 # web configuration interface

Ab sofort sollten sich Klienten registrieren und mit dem Server verbinden können. Die Administrationsoberfläche erreichen wir unter https://<domain>:5280/admin/. Für den Login verwenden wir den zuvor angelegten Administrator sowie das zugehörige Passwort. Benutzer können sich ab sofort unter der Adresse https://<domain>:5280/register/ selbst registrieren.

Clustering

Um die Ausfallsicherheit des XMPP-Dienstes zu erhöhen bzw. um den Dienst zu skalieren, lassen sich mehrere Knoten zu einem Cluster zusammenschalten. Voraussetzung hierfür ist die Grundkonfiguration wie im vorherigen Abschnitt beschrieben. Im Folgenden Beispiel wird von zwei Knoten <host1> und <host2> ausgegangen. Wichtig: <host1> und <host2> beschreiben hierbei die Host-Namen ohne Domain-Erweiterung! Damit Erlang in der Lage ist, die Host-Namen auch ohne DNS-Server aufzulösen, ergänzen wir die Datei /etc/hosts auf beiden Knoten um die folgenden Einträge:

<ipv4-host1> <host1> <host1>.<domain1>
<ipv4-host2> <host2> <host2>.<domain2>
 

Zusätzlich müssen wir die Firewall öffnen, damit sich die Erlang-Knoten miteinander verbinden können. Zunächst beschränken wir den genutzten Portbereich, indem wir in der Datei /etc/default/ejabberd die folgende Zeile einfügen:

FIREWALL_WINDOW=9001-9005

Im Anschluss öffnen wir den Port 4369 für den Erlang-DNS-Server empd und den zuvor festgelegten Portbereich von 9001 - 9005. Wie im vorherigen Abschnitt wird von der Verwendung der Uncomplicated Firewall ausgegangen:

ufw allow 4369
ufw allow 9001:9005

Eine weitere Voraussetzung für den Austausch der Knoten ist die Verwendung des selben Erlang-Cookies. Dieser ist in der Datei /var/lib/ejabberd/.erlang.cookie hinterlegt. Nachdem wir den Cookie <cookie> des ersten Knotens <host1> in Erfahrung gebracht haben, übertragen wir diesen auf den zweiten Knoten <host2>:

echo -n "<cookie>" > /var/lib/ejabberd/.erlang.cookie

Falls ejabberd bereits läuft, fahren wir den Dämonen herunter:

service ejabberd stop

Danach nehmen wir die Identität des Benutzers ejabberd an:

su ejabberd

Jetzt starten wir von Hand eine Erlang-Konsole unter Eingabe der folgenden Befehlszeile:

erl -sname ejabberd -mnesia dir '"/var/lib/ejabberd/"' -mnesia extra_db_nodes "['ejabberd@<host1>']" -mnesia

Sollte es zu einer längeren Fehlermeldungen mit vielen Klammern kommen (sehr vielen Klammern!), so liegt dies vermutlich daran, dass der ejabberd nicht korrekt heruntergefahren wurde. In diesem Fall muss der Prozess manuell mittels kill beendet werden. Nachdem die Konsole erfolgreich geöffnet wurde, lässt sich der Status der Mnesia-Datenbank abfragen:

mnesia:info().

Hinweis: Erlang-Befehle werde immer mit einem Punkt abgeschlossen. Dieser ist nicht optional! In der Folge sollte sich ein Schwall von Informationen über den Schirm ergießen. Wenn alles in Ordnung ist und die Verbindung mit <host1> zustande kanm, dann sollte sich die folgende Zeile darunter befinden:

runnning db nodes = [ ejabberd@<host1>, ejabberd@<host2> ]

Sollte die Verbindung nicht zustande gekommen sein, empfiehlt es sich manuell ein paar Tests durchzuführen. Auf der Seite Interconnecting Erlang Nodes findet man Anweisungen, um manuell eine Verbindung zwischen zwei Erlang-Knoten herzustellen. Zuvor muss ejabberd allerdings auf beiden Knoten gestoppt werden. War alles erfolgreich, dann geht es weiter mit der Kopplung der Datenbanken. Diese erreichen wir mit der folgenden Befehlszeile:

mnesia:change_table_copy_type(schema,node(),disc_copies).
Tip.png Tipp: In seltenen Fällen kann es zur folgenden Fehlermeldung kommen: "** FATAL ** Failed to merge schema: Bad cookie in table definition". Dies ist ein Hinweis darauf, dass die Mnesia-Datenbank korrumpiert wurde. Um das Problem zu beheben, müssen wir die Datenbank zurückzusetzen.

Im Anschluss überprüfen wir erneut den Status der Mnesia-Datenbank. Das Ergebnis sollte in etwa wie folgt aussehen:

---> Processes holding locks <--- 
---> Processes waiting for locks <--- 
---> Participant transactions <--- 
---> Coordinator transactions <---
---> Uncertain transactions <--- 
---> Active tables <--- 
schema         : with 36       records occupying 4696     words of mem
===> System info in version "4.7", debug level = none <===
opt_disc. Directory "/var/lib/ejabberd" is used.
use fallback at restart = false
running db nodes   = ['ejabberd@box-1719',ejabberd@altegurke]
stopped db nodes   = [] 
master node tables = []
remote             = [acl,bytestream,caps_features,captcha,config,iq_response,
                      irc_custom,last_activity,local_config,mod_register_ip,
                      motd,motd_users,muc_online_room,muc_registered,muc_room,
                      offline_msg,passwd,privacy,private_storage,pubsub_index,
                      pubsub_item,pubsub_last_item,pubsub_node,pubsub_state,
                      pubsub_subscription,reg_users_counter,roster,
                      roster_version,route,s2s,session,session_counter,
                      temporarily_blocked,vcard,vcard_search]
ram_copies         = []
disc_copies        = [schema]
disc_only_copies   = []
[] = [local_config,caps_features,mod_register_ip]
[{ejabberd@altegurke,disc_copies},{'ejabberd@box-1719',disc_copies}] = [schema]
[{'ejabberd@box-1719',disc_copies}] = [config,pubsub_subscription,privacy,
                                       passwd,irc_custom,roster,last_activity,
                                       roster_version,motd,acl,pubsub_index,
                                       vcard_search,motd_users,muc_room,
                                       pubsub_state,muc_registered,
                                       pubsub_node]
[{'ejabberd@box-1719',disc_only_copies}] = [offline_msg,vcard,private_storage,
                                            pubsub_item]
[{'ejabberd@box-1719',ram_copies}] = [reg_users_counter,bytestream,
                                      pubsub_last_item,route,s2s,captcha,
                                      session_counter,session,iq_response,
                                      temporarily_blocked,muc_online_room]
4 transactions committed, 0 aborted, 0 restarted, 3 logged to disc
0 held locks, 0 in queue; 0 local transactions, 0 remote
0 transactions waits for other nodes: []

Sofern sich Erlang nicht beschwert, wurden die Datenbanken erfolgreich gekopplet und die Knoten befinden sich nach dem Neustart von ejabberd im selben Cluster. Wir verlassen die Erlang-Konsole:

q().

Und schlüpfen zurück in die Rolle des Benutzers root:

exit

Bevor wir ejabberd erneut starten nehmen wir noch eine kleine Änderung in der Konfiguration vor. Da die beiden Knoten normalerweise neben der lokalen Domain <local_domain> einen gemeinsame Domain <joint_domain> bedienen sollten, ergänzen wir diese in /etc/ejabberd/ejabberd.cfg:

%% Hostname
{hosts, ["<local_domain>", "<joint_domain>"]}.

Diese Änderung muss auf beiden Knoten vorgenommen werden! Zuletzt starten wir ejabberd erneut:

service ejabberd start

Ob wir erfolgreich waren, können wir bequem über die Web-Oberfläche von ejabberd abfragen. Hierzu öffnen wir den Link http://<domain>:5280/admin/ und authentifizieren uns als Administrator. Unter dem Menü-Punkt Nodes sollten ab sofort zwei Knoten ähnlich dem folgenden Bildschirmfoto dargestellt werden:

Ejabberd nodes.png

Als letzte Tat wählen wir noch den Untermenü-Punkt Database für unseren neu installierten Knoten unter dem Hauptmenü-Punkt Nodes. Standardmäßig werden die gemeinsamen Tabellen auf dem neuen Knoten lediglich als "Remote Copy" vorgehalten und damit über das Netzwerk abgefragt. Um die Daten auch lokal und damit redundant zu sichern, passen wir den "Storage Type" den Einstellungen des primär installierten Knotens an. Eine Übersicht gibt das nachfolgende Bildschirmfoto:

Ejabberd database.png

Um den Cluster auch als solchen nutzen zu können, fehlt nur noch ein Round-Robin DNS-Eintrag für die gemeinsame Domain <joint_domain>, welcher auf alle Knoten verweist. Alternativ kann ein TCP-Proxy auf einem zentralen Router/Gateway installiert werden. Als dritte Möglichkeit können sich die Klienten explizit mit einem der Knoten über den entsprechenden Hostnamen verbinden ("Connection Host").

Datenbank zurücksetzen

In seltenen Fällen kann es zu einer Korrumpierung der Mnesia-Datenbank kommen. Um die Datenbank zurückzusetzen stoppen wir als erstes den ejabberd:

 service ejabberd stop

Danach öffnen wir als Benutzer ejabberd eine Erlang-Konsole mit der folgenden Befehlszeile:

 erl -sname ejabberd -mnesia dir '"/var/lib/ejabberd"'

Die Datenbank setzen wir mit dem folgenden Befehl zurück:

 mnesia:delete_schema(['<host2>'])

Im Anschluss müssen wir die Datenbanken wie unter Clustering beschrieben erneut synchronisieren.

Load Balancing und Failover mit HAProxy

Um alle Knoten in einem Jabber-Cluster nutzen zu können benötigen wir noch eine Instanz, welche die Klienten auf die einzelnen Knoten verteilt ("Load Balancing"). Stellt diese Instanz zudem sicher, dass Klienten ausschließlich an funktionale Knoten geleitet werden, entsteht gleichzeitig eine "Failover"-Lösung. Eine einfache Möglichkeit dies zu erreichen besteht in der Verwendung eines TCP-Proxys. Im Folgenden wird die Realisierug unter Verwendung von HAProxy beschrieben. Die Anleitung folgt dem Blog-Artikel von Zbyszek Żółkiewski.

Der HAProxy wird auf einem Gateway installiert, welches aus dem Internet erreichbar ist. Hierbei ist es wichtig, dass die Jabber-Domain (zumindest die globale) per DNS auf dieses Gateway aufgelöst wird. Im ersten Schritt installieren wir das Paket:

apt-get install haproxy

Im Anschluss bearbeiten wir die Konfiguration in der Datei /etc/haproxy.cfg. Die Einstellungen in der Sektion "global" können wir unverändert lassen. Die Sektion "defaults" ersetzen wir mit dem folgenden Abschnitt. Wichtig ist, dass HAProxy im TCP-Modus ("mode tcp") betrieben wird, d.h. Verbindungen werde ohne Modifikationen weitergeleitet. Wir erlauben insgesamt 3 Verbindungsversuche ("retries 2"). Danach wird versucht, die Verbindung an einen anderen Knoten zu vermitteln ("option redispatch"). Um TCP-Verbindungen auch über einen längeren Zeitraum am Leben zu halten, aktivieren wir den Versand von "Keep Alive"-Mitteilungen ("option tcpka", "option clitcpka" und "option srvtcpka"):

defaults
        log     global
        mode    tcp
        retries 2
        option redispatch
        option tcplog
        option tcpka
        option clitcpka
        option srvtcpka
        timeout connect 5s      #timeout during connect
        timeout client  24h     #timeout client->haproxy(frontend)
        timeout server  60m     #timeout haproxy->server(backend)

Danach definieren wir zwei "frontends". Das eine "frontend" nimmt Klienten-zu-Server-Verbindungen auf dem Port 5222 entgegen, das andere Server-zu-Server-Verbindungen auf dem Port 5269. Der Platzhalter <gateway_ip> bezeichnet die öffentliche IP-Adresse des Gateways, auf welche der DNS-Eintrag zur Jabber-Domäne verweist:

frontend access_clients <gateway_ip>:5222
        default_backend cluster_clients
frontend access_servers <gateway_ip>:5269
        default_backend cluster_servers

Passend zu den "frontends" deklarieren wir zwei "backends". In diesen wiederum legen wir Verweise auf die einzelnen Knoten ("server") an. Im Folgenden Beispiel wird von zwei Knoten ausgegangen ("server1" und "server2"). Die Platzhalter <server1_ip> und <server2_ip> bezeichnen die IP-Adressen der Knoten innerhalb des Freifunknetzes. Beim Hinzufügen weiterer Knoten ist auf die Eindeutigkeit der vergebenen IDs zu achten. Die Verteilung von eingehenden Verbindungen erfolgt entsprechend der Gewichte ("weight 50") und kann angepasst werden. HAProxy überprüft, ob die Knoten tatsächlich erreichbar sind ("check"). Nach drei Fehlversuchen ("fall 3") wird ein Knoten als offline angenommen. Die Überprüfung erfolgt in Abständen von 5000 ms ("inter 5000"). Nach drei erfolgreichen Antworten ("rise 3") gilt der Knoten wieder als online und wird über einen Zeitraum von 120000 ms langsam hochgefahren ("slowstart 120000"). Die Option "balance leastconn" sorgt dafür, dass der Knoten mit der geringsten Anzahl an Klienten bei der Vergabe bevorzugt wird:

backend cluster_clients
        log global
        balance leastconn
        option independant-streams
        server  server1 <server1_ip>:5222 check fall 3 id 1001 inter 5000 rise 3 slowstart 120000 weight 50
        server  server2 <server2_ip>:5222 check fall 3 id 1002 inter 5000 rise 3 slowstart 120000 weight 50
backend cluster_servers
        log global
        balance leastconn
        option independant-streams
        server  server1 <server1_ip>:5269 check fall 3 id 1011 inter 5000 rise 3 slowstart 60000 weight 50
        server  server2 <server2_ip>:5269 check fall 3 id 1012 inter 5000 rise 3 slowstart 60000 weight 50

Wir speichern die Datei ab und starten den HAProxy erneut:

service haproxy restart

Ab sofort sollten auf dem Gateway eingehende Klienten- und Serververbindungen auf die Knoten verteilt werden.

Proxy zur Weiterleitung der Web-Oberfläche

Der ejabberd bietet eine komfortable Web-Oberfläche zur Administration und Registrierung von Benutzern. Da die Knoten im Normalfall jedoch innerhalb des Freifunknetzes laufen, ist diese nicht aus dem Internet zu erreichen. Eine weitere Limitierung ist, dass das Modul zur Registrierung von Benutzern immer den Hostnamen des HTTP-Requests verwendet. Entsprechend macht es Sinn, auf dem gleichen Gateway, auf welchem auch der HAProxy läuft, einen Reverse Proxy einzurichten. Da im Normalfall bereits ein Aapache2 Web-Server vorhanden ist, werden wir diesen für die Einrichtung des Reverse Proxy verwenden. Zunächst installieren wir das optionale Modul proxy-html:

apt-get install libapache2-mod-proxy-html

Danach aktivieren wir das Modul rewrite sowie die Module proxy und proxy-html für die Proxy-Funktion:

a2enmod rewrite proxy proxy-html

Falls SSL noch nicht aktiviert wurde, benötigen wir zusätzlich:

a2enmod ssl
a2ensite default-ssl

Danach legen wir eine neue Site ejabberd unter /etc/apache2/sites-available an. In dieser erstellen wir zwei VirtualHosts für die Jabber-Domain <jabber_domain>. Der VirtualHost auf Port 80 hat lediglich den Zweck, Anfragen via HTTP auf HTTPS umzuschreiben. Der VirtualHost auf Port 443 übernimmt dann die eigentliche Aufgabe der Weiterleitung auf den Jabber-Knoten <jabber_node>. Die Wahl des Knoten ist hierbei beliebig, da sich die Knoten in einem Cluster befinden. Die Platzhalter für das SSL-Zertifikat <myssl.cert> und den SSL-Schlüssel <myssl.key> sind den lokalen Gegebenheiten anzupassen. Der letzte Abschnitt dient dazu, absolute URLs umzuschreiben. Dies ist notwendig, um auf das Captcha zuzugreifen:

<VirtualHost *:80>
    ServerAdmin webmaster@localhost
    ServerName <jabber_domain>
    
    CustomLog "/var/log/apache2/jabber_access_log" combined
    ErrorLog  "/var/log/apache2/jabber_error_log"

    DocumentRoot /var/www/

    RewriteEngine On
    RewriteCond %{HTTPS} ^off$
    RewriteRule ^/(.*) https://<jabber_domain>/$1 [L,R]
</VirtualHost>

<VirtualHost *:443>
    ServerAdmin webmaster@localhost
    ServerName <jabber_domain>

    ProxyPreserveHost On
    ProxyRequests off

    SSLEngine On
    SSLCertificateFile    /etc/ssl/localcerts/<myssl.cert>
    SSLCertificateKeyFile /etc/ssl/localcerts/<myssl.key>

    SSLProxyEngine On
    ProxyPass / https://<jabber_node>:5280/
    ProxyPassReverse / https://<jabber_node>:5280/

    SetOutputFilter proxy-html
    ProxyHTMLURLMap https://<jabber_node>:5280 https://<jabber_domain>
    RequestHeader unset  Accept-Encoding
</VirtualHost>

Im Anschluss aktivieren wir die Site und starten den Apache neu:

a2ensite ejabberd
service apache2 reload

Ab sofort sollte die Administrationsoberfläche bzw. Registrieringsseite unter https://<jabber_domain>/admin/ bzw.https://<jabber_domain>/register/ über das Gateway ereichbar sein.