Hardwareempfehlung FO Server?

Hallo Gemeinschaft :slight_smile:

Momentan liegt die Datenbank meines FO Pro auf einem Server mit folgender Ausstattung:

Win10
Core2duo, 3GHz
4GB RAM
SSD
internes Netzwerk: 1 GBit

Jetzt möchte ich möglichst der Datenbank einen Geschwindigkeitsschub geben. Wodurch erreiche ich das am besten? Welcher Faktor bzw. welche Faktoren sind für den DB-Server am entscheidendsten? CPU? RAM? Etwas anderes? Wie läßt sich die Geschwindigkeit optimieren?

Eigentlich auch gleich hinterher die gleiche Frage für die Clients? Von was profitieren die am Stärksten?

Hallo eeeStorm,

Arbeitsspeicher ist ein Aspekt, vom dem man nie zu viel haben kann. Also der Server PC hat eine Systemvoraussetzung seitens Lexware von 4GB, ich empfehle mindestens immer das Doppelte. Aber wenn Du hier 16GB reinpackst, schadet das sicher nicht. :slight_smile:

Die CPU auf eine aktuelle Generation (i5, i7) bringt sicherlich auch etwas. SSD hast Du ja schon. Grundlegend spielt natürlich auch mit rein, was sonst noch so auf dem Rechner läuft und Ressourcen zieht.

Clients ähnlich: mininum 2GB RAM gewünscht, empfehle ich mindestens 4, besser 8GB.

Vielen Dank für die Hinweise!
Vielleicht wäre es sinnvoll diese Infos in eine FAQ aufzunehmen? Zumindest hab ich es bis dato nicht gefunden. Die Mindestvoraussetzungen findet man zwar auf der Webseite, aber gerade empfohlene Hardware, vor allem worauf der Fokus gelegt werden sollte, habe ich keine gesehen.

Hallo eeeStorm,

ich gebe ein paar der Hinweise bei der Übersicht zu den Systemvoraussetzungen mit an, hier für Versionen 2018. Alles andere ist dann eher individuelle Beratung, da hier doch noch ein paar andere Aspekte mit eine Rolle spielen.

Viel entscheidender als einfach nur „eine SSD“ ist welche SSD das ist! Datenbanken profitieren von zwei Dingen: RAM und IO-Leistung bei den Festplatten.

In Anbetracht deines Uralten Systems (Core2Duo) ist noch etwas ganz anderes von dramatischer Relevanz:
Deine Hardware ist weit weit weit über der durchschnittlichen Lebenserwartung. Ersatzteile für derart alte Systeme sind quasi gar nicht mehr zu bekommen. Hier solltest Du um für Ausfallsicherheit in deinem Betrieb zu sorgen unbedingt auf ein aktuelles System wechseln.

Ich weiß, das ist natürlich etwas im Eigeninteresse, da ich Hardware mit bis zu 5 Jahren Vor-Ort-Service am nächsten Werktag aus Deutscher Fertigung verkaufe, aber stelle dir einfach mal die Frage was du für ein Problem hättest, wenn die Maschine über einige Wochen nicht läuft, weil du z.B. auf irgendwelche gebrauchten Ersatzteile von Ebay warten musst.

Meine Empfehlung ganz klar: Wechsel auf ein aktuelles System mit mehr RAM und leistungsfähiger SSD!

Wenn ich dir hierbei behilflich sein darf: PN :slight_smile:

Hallo!
Danke für die Tipps. Das hilft weiter. OK - inzwischen habe ich modernisiert:

Core i5 2,9GHz, 16GB RAM, Win10, SSD (IOPS 4K lesen/schreiben: 8.1k/4.5k) (OK…eher langsam…)
Fühlt sich auch gleich besser an :wink: Backup findet alle paar Stunden statt - das ist mir heilig wichtig…

An die IOPS bei der SSD hab ich nicht gedacht - dabei ist das absolut logisch. Welche Art von IOPS sind bei DB-Anwendungen relevant? Sicherlich nicht die werbewirksam 4Ks ?

Übrigens halte ich von alten Rechnern noch recht viel, nicht umsonst habe ich eine Sammlung an C64ern und vor allem Amigas zuhause :wink: Hab schon ernsthaft überlegt, ob sich nicht ein Amiga für Textverarbeitungen noch einsetzen läßt :smiley:

Der Random 4K IOPS Wert ist das Maß der Dinge für Vergleiche.

Deine SSD scheint da allerdings fast langsamer als manche Festplatte zu sein…
Konstante Write-IOPS Werte liegen bei ~ 30.000, Burst Werte bei 150.000

Langsamer als Festplatten halte ich jetzt für übertrieben (meines Wissens nach liegen typische Festplatten bei 100-250 IOPS - ich gehe jetzt nicht von hochdrehenden 15k-Modellen aus)…aber ja, für eine SSD sehr langsam. Aber: macht die ANzahl der IOPS gerade auf eine Lexware-FO-Datenbank einen spürbaren Unterschied? Tolle techn. Werte sind das eine, die gefühlte „Schwuppdizität“ ist doch etwas anderes.

Kann man eigentlich die Lex-Datenbank in der Arbeitszeit im RAM betreiben und zu Ruhezeiten auf die SSD schreiben? Damit wäre die Geschwindigkeitsfrage ja eh endgültig erledigt…

Darum schrieb ich ja auch „fast“ :wink:

Pauschal beantworten kann man das nicht - Je nach Datenbankgröße und durchgeführter Abfrage (sprich Ansicht in der Software) werden andere Qualitäten der Hardware gefordert. Hier gibt es ja auch unterschiedliche Dinge:

Beim Start der Software und erstem Aufruf diverser Ansichten dreht es sich primär um die Festplatte und die CPU
Beim wiederholten Aufrufen bei bereits gestarteter Anwendung um die Größe des Arbeitsspeichers und ob Lexware so „schlau“ ist hier auch zu Cachen bzw. vor-zuhalten
Bei komplexen Abfragen und umfangreichen Anzeigen mehr um die CPU.

Zu deiner Frage bezüglich der Datenbank im Ram: Ja, die gibt es in der Tat.

Wenn du sehr viel Arbeitsspeicher zur Verfügung hast (z.B. 32GB) und ein Großteil davon für den Regelbetrieb gar nicht notwendig ist, hilft einem sich zu langsam anfühlenden System eine Software wie PrimoCache auf die Sprünge. Hier wird ein Teil des Arbeitsspeichers, z.b. 16 der 32GB RAM zu Cache-Zwecken verwendet. Die Software klemmt sich hier sehr systemnah quasi zwischen die Festplatte und den Controller und liefert so für häufig verwendete Daten rasende Performance.

Der Cache lässt sich so konfigurieren, dass er auch nach einem Neustart wiederhergestellt wird, auch eine Kombination mit einem Schreib-Cache ist möglich, dies birgt jedoch ein erhöhtes Risiko für Datenverlust.

Wow…ich bin gerade erstaunt und begeistert, dass es die gute alte „RAM-Disk“ tatsächlich noch in spezieller Form gibt. Läßt sich denn über die Software auch steuern, was gecacht wird? Also speziell die einzelnen Anwendungen?
Ich habe aktuell 16 GB im Server-System. Der Gedanke wäre, ob man gezielt z.B. 8 GB Lexware zur Verfügung stellen könnte…

Hehe die gedankliche Nähe zu einer Ramdisk ist recht nahe - wesentlich näher technisch gesehen kommt das ganze allerdings der Adaptec MaxCache Technologie, nur eben auf Software-Ebene.
Das Caching arbeitet unterhalb der Datei-Ebene extrem hardwarenah - daher ist auch nicht möglich zu definieren, welche „Dateien“ gecached werden. Im Falle einer 40GB Outlook PST Datei wäre das nämlich auch reichlich unsinnig, da nur ein Bruchteil von der auf Cluster-Ebene überhaupt regelmäßig verwendet wird.

Um mal eine kleine Erfahrungsmeldung zu geben: Ja der neue Server fühlt sich massiv schneller an, vor allem Lohn+Gehalt, was vorher extrem langsam lief, fühlt sich wesentlich „smoother“ an.

Also: Viel RAM ist gooood :mrgreen:

2 „Gefällt mir“

Vielleicht noch ein Hinweis:
Meine Rechner haben ~300-400€ gekostet. Ein befreundeter Anwalt hat sich einen tollen Core i7-Rechner mit 16GB, neuster Samsung SSD etc gekauft - 1800€ insgesamt ausgegeben. Den Unterschied im Vergleich zu meinem System ist marginal. Viel Geld ist nicht viel Speed - zumindest in diesem Anwendungsfall. Vielleicht hätten 32 GB RAM und eine PCIe-SSD noch geholfen…aber das ist unnötiger Overkill.

Hallo DReffects,

wie kann man dich denn kontaktieren? Ich habe mich gerade erst registriert und bin deshalb nicht berechtigt, PNs zu schreiben.

VG, Daniel

1 „Gefällt mir“

Willkommen im Forum!

Du kannst mir z.B. eine E-Mail unter **** schreiben wenn PN für dich (noch) nicht geht. Alternativ telefonieren wir auch gerne :slight_smile:

E-Mail Adresse aus Datenschutzgründen durch Administration entfernt