Temat: Wydajność duże bazy, a ilość pamięci
Pewien CRM migruje z MS SQL do PostgreSQL.
Na razie migracja dotyczyła kilku pomniejszych moich klientów.
Mam obawy co do dużych klientów.
System ten używa dużą ilość osobnych baz danych.
Przykład dużego klienta przed migracją:
Główna baza ma na MS SQL około 6 GB
Do tego dwie bazy po 2 GB
Oraz kilkanaście baz 1 GB oraz kilkanaście baz 8 GB
W zasadzie tylko baza główna i te dwie 2 GBajtowe są mocno używane.
Pozostałe zawierają dokumenty w formie BLOBów w rozbiciu na kolejne lata.
Obecnie klient ma System Windows 2012 16 GB RAM (będzie rozszerzana do 32), XEON 3,5 GHz .
Klient w biurze ma 15 pracowników, którzy intensywnie pracują na bazie 6GB oraz na tych dwóch bazach 2GB
Do pozostałych baz dostęp nie jest intensywny ale co najmniej kilkaset operacji odczytów/zapisów na dzień wykonuje się na tych pozostałych bazach z każdego stanowiska roboczego.
Jak widzicie kwestię wydajności bazy ?
Chodzi ni o to że MS SQL przy pełnej wersji mógł mieć przydzielone na instancję powiedzmy 24 GB danych, co powodowało że całe 6GB+2GB+2GB było buforowane przez pamięć.
Jak rozumiem zarządzanie pamięcią w PostgreSQL (jestem początkujący jeżeli chodzi o PostgreSQL) jest ukierunkowane na sesje.
Jeżeli każdy użytkownik (pracownik klienta) będzi etworzył co najmniej 10 sesji to razem będzie 150 sesji.
Jak więc mam ustawić parametry PostgreSQL i jakich parametrów serwera powinno w tym przypadku się użyć, by praca była co najmniej tak samo wydajna jak na MS SQL.
ps.
pomijam kwestie związane z strukturą bazy,
Chodzi mi tylko o kwestię buforowania danych w pamięci - zamiast bezpośrednie odwoływanie się do dysku.
Pozdrawiam
mLipok