Leszek Chodor, 23 maj 2014
18.06. 2016 ; 29-07-2025 dodanie przykładów
06.11. 2025 scalenie artykułów i naprawa po poważnej awarii portalu.
W przypadku nieczytelnych treści, proszę powiadomić: leszek@chodor.co
W ciągu ostatnich 24 godzin z artykułu korzystało 75 Czytelników
Poznaj kluczowe zasady niezawodności systemów konstrukcyjnych w naszym praktycznym przewodniku.
Konstrukcje budowlane znamienne są tym, że są wysoko-niezawodne (operują w „ogonach rozkładów” zmiennych losowych) i są bardzo złożonymi systemami w sensie teorii niezawodności (są to systemy pomieszane z systemów szeregowo-równoległych) dla których konieczne jest znajomość oszacowań górnych i dolnych prawdopodobieństwa zniszczenia. Przedstawiono metody FORM I SORM, a także mniej znanej metody uogólnionej korelacji, stosowane w analizach probabilistycznych konstrukcji budowlanych. Analizy zilustrowano przykładami liczbowymi. Sformułowano praktyczne wnioski ważne dla projektanta konstruktora.
Tablice projektanta
Zmienne losowe
Tab.1. Parametry zmiennych losowych 
Uwaga:
W przypadku zmiennych odcinkami ciągłych powyższe definicje będą uogólnione przez zastosowanie ciągów sum całek rozciągniętych na przedziały ciągłości. Jeśli zmienne jest dyskretna, to całki będą zastąpione sumami.
Tab. 2 Wybrane rozkłady jednowymiarowych zmiennych losowych ciągłych, stosowane w teorii niezawodności konstrukcji budowlanych

Uwagi:
1) Funkcja Laplace’a (standaryzowana dystrybuanta rozkładu normalnego) $\Phi(x) = \cfrac{1}{\sqrt{2 \pi}} \int \limits _{-\infty}^x e^{\cfrac{ – \xi^2}{2}}d \xi$; odwrotna funkcja Laplace’a .
2) Funkcja gamma , $\Gamma(x+1) = \int \limits_0^{\infty} e^{- \xi} \xi^x d \xi $, gdzie (x+1)> 0 .
3) Funkcja beta $B( \alpha+1, \beta+1) = \int \limits_0^1 (1-x)^{\beta} dx = \cfrac{\Gamma(\alpha +1 ) \Gamma(\beta +1)}{\Gamma(\alpha +\beta + 2)}$.
4) Stała Eulera C=0, 5772156649…;
Normalny rozkład prawdopodobieństwa – informacje dodatkowe
Na rys. 1 pokazano rozkład normalny zmiennej $X$. Kolorem żółtym oznaczono dystrybuantę dla wartości $x$ tej zmiennej.
W obliczeniach probabilistycznych poziomu drugiego oryginalny rozkład zmiennych stanu $X_i$ skorelowanych o dowolnym rozkładzie transformuje się do zmiennych nieskorelowanych o normalnym rozkładzie prawdopodobieństwa i parametrach
$$ \begin{equation} {\mathcal N}( \mu_{Xi}, \sigma_{Xi}) \label{1} \end{equation} $$
gdzie $\mu_{Xi}$ i $\sigma _{Xi}$ – odpowiednio wartość oczekiwana (średnia) i odchylenie standardowe (pierwiastek z wariancji) zmiennej $X_i$.
Dystrybuantę rozkładu normalnego $\mathcal {N}$ ($\ref{6}$) można wyznaczyć w arkuszu kalkulacyjnym Excel za pomocą polecenia:
$$ \begin{equation} F_{\mathcal N} (x)={\small ROZKL.NORMALNY} (x ; \mu_X; \sigma_X; k ) \label{2} \end{equation} $$
gdzie: k jest parametrem o wartości k=1 w przypadku, gdy chcemy wyznaczyć dystrybuantę (rozkład skumulowany) $\Phi_X $ i o wartości k=0 , gdy wyznaczamy funkcję gęstości (rozkładzie) $f_X$ w punkcie $X=x$.
W dalszym ciągu będziemy potrzebować zarówno wartości dystrybuanty jak i funkcji gęstości rozkładu, a ponieważ wyznaczenie tych wartości w arkuszu kalkulacyjnym jest współcześnie podstawową umiejętnością, więc do techniki ($\ref{2}$) będziemy często odwoływać się, ale już bez wskazywania na funkcję Excela. Z zależności ($\ref{2}$) wynika, że w celu otrzymania dystrybuanty standaryzowanego rozkładu normalnego $ {\mathcal N }(0,1)$, tj rozkładu zmiennej losowej o wartości oczekiwanej $\mu=0$ i odchyleniu standardowym $\sigma=1$ dla wartości $x$ zmiennej $X$ należy użyć polecenia:
$$ \begin{equation} F(0,1)= {\small ROZKL.NORMALNY } (x ; 0 ; 1; 1) \label{3} \end{equation} $$
W celu otrzymania wartości dystrybuanty dla dowolnego rozkładu normalnego ${ \mathcal N } (\mu,\sigma)$ (o danych wartościach średniej $\mu$ i odchylenia standardowego $\sigma$ ), wystarczy znajomość rozkładu standaryzowanego ${ \mathcal N } (0,1)$, ($\ref{3}$) bowiem
$$ \begin{equation} \text{ jeśli X ma rozkład } \mathcal N (\mu_X, \sigma_X) \to \cfrac {X- \mu_X} {\sigma_X} \text{ ma rozklad standaryzowany } \mathcal N (0, 1) \label{4} \end{equation} $$
Wyznaczenie dystrybuanty funkcją arkusza Excel jest wystarczająco dokładne również w zagadnieniach niezawodności budowlanych układów konstrukcyjnych, które charakteryzują się wysoką niezawodnością systemu, ale również elementów i potrzebą wyznaczania dystrybuanty w „ogonach” rozkładu prawdopodobieństwa. Na znaczeniu straciły tablice rozkładu inżynierów budownictwa, potrzebne dla zakresu dużych niezawodności.
Dla tych przypadków, w których należy przeprowadzić indywidualne obliczenia numeryczne bez możliwości wywołania funkcji arkusza Excel, na podstawie pracy [1] w tab. 3 podano numeryczne formuły aproksymacyjne dystrybuanty standaryzowanego rozkładu normalnego ($\ref{31}$).
Stosowana jest również formuła:
$$ \begin{equation} \Phi(-t) \cong\sqrt {\cfrac {1}{\pi}} e^{-\cfrac{t^2}{2}} \left ( \cfrac {0,3193815} {t_z}-\cfrac{0,3565638} {t_z^2} + \cfrac{1,7814779} {t_z^3} – \cfrac{1,8212560}{t_z^4}+\cfrac{1,33027448} {t_z^5}\right ) \label{5} \end{equation} $$
gdzie zmienna pomocnicza ${ t_z = 1+0,2316419\cdot t }$.
Tab. 3 Aproksymacje numeryczne wybranych dystrybuant
Tab.4 Dystrybuanta normalna Φ(β) dla inżynierów budownictwa
Przykład: r= pr= Φ(β= 5,18) = 0,968888=0,9999998888.
Tab.5 Odwrotna dystrybuanta normalna dla inżynierów budownictwa. Współczynnik niezawodności β
Przykład $\beta =\Phi( r = 0,99999996 = 0,9^7 6) = ,36753$
Tab.6 Estymatory otrzymane metodą momentów
Współczynnik niezawodności β wg normy PN-EN 1990
Tab.7 Zależność liczbowa pomiędzy współczynnikiem niezawodności β a prawdopodobieństwem zniszczenia pf [2]
Tab.6 zaczerpnięta z normy PN-EN-1990 dotycząca podstaw projektowania konstrukcji budowlanych [2] zależność pomiędzy prawdopodobieństwem zniszczenia $p_f$ a indeksem niezawodności $\beta$ podaje tabelarycznie:
Tab. 8 Minimalne współczynniki niezawodności βmin zależnie od konsekwencji zniszczenia konstrukcji RC i projektowanego czasu użytkowania T [2]
Momenty statystyczne funkcji wektorów losowych
Poniżej wprowadzono oznaczenia:
$\mathcal{E}$ – operator wartości oczekiwanej,
indeks górny mieczyk (†) – wartość sprzężona wielkości lub funkcji zespolonej. W przypadku macierzy rzeczywistych wartość sprzężona jest macierzą transponowaną – indeks (T).
Formuły na momenty statystyczne funkcji dotyczą zarówno rzeczywistych jak i zespolonych zmiennych skalarnych lub wektorowych.
Poniższe formuły uzupełniają wyrażenia zestawione w tab.1.
Losowe wektory $\mathbf{Y}$ oraz $\mathbf{Z}$ (w ogólnym przypadku zespolone) mają wartość oczekiwaną $ \mu_y =\mathcal E\mathbf{Y} $ i $ \mu_z = \mathcal E\mathbf{Z}$ i obie są funkcjami rzeczywistego wektora losowego $\mathbf{X}$ , który ma funkcję gęstości rozkładu prawdopodobieństwa $f_\mathbf{X} (x)$. oraz wartość oczekiwaną \mu_x = \mathcal E \mathbf{X}$
$$ \begin{equation} \mathbf{Y} = \Theta (\mathbf{X}) \quad , \quad \mathbf{Y}= \Psi(X)\ \label{6} \end{equation} $$
Wycentrowane zmienne $\mathbf{X}^0$ i $\mathbf{Y}^0$, \mathbf{Z}^0:
$$ \begin{equation} \mathbf{X}^0 = \mathbf{X} – \mu_x \quad , \quad \mathbf{Y}^0 = \mathbf{Y} – \mu_y \quad , \quad \mathbf{Z}^0 = \mathbf{Z} – \mu_z \label{7} \end{equation} $$
Wartość oczekiwana funkcji $ \Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$
$$ \begin{equation} \mu _y= \mathcal{E} \mathbf{Y} = \mathcal{E} \Theta (\mathbf{X}) = \int \limits_{-\infty}^{\infty} \Theta (x) f(x) dx \label{8} \end{equation} $$
Moment drugiego rzędu funkcji $ \Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$
$$ \begin{equation} \Gamma _y= \mathcal{E} \mathbf{Y}\mathbf{Y}^† = \mathcal{E} \Theta(\mathbf{X}) \Theta(\mathbf{X})^† = \int \limits_{-\infty}^\infty \Theta \Theta^† f(x) dx\label{9} \end{equation} $$
Wariancja $\Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$
$$ \begin{equation} Var (\mathbf{Y}) = \mathbf{C}_{yy} =\sigma_y^2 = \mathcal{E} \mathbf{Y}^0\mathbf{Y}^{0†} = \mathcal{E} [ \Theta (\mathbf{X}) – \mu_y] [\Theta(\mathbf{X})^† – \mu_y^†] \int \limits _ {-\infty}^{\infty}[\Theta (x) – mu_y][\Theta(x)^† – \mu_y^† ] f (x) dx \label {10} \end{equation} $$
Wariancja $Var_x= \sigma^2_x dowolnego wktora $\mathbf{X}jest jego kowariancją z samam sobą $\mathbf{C}_{xx}$
Wzajemny drugi moment
$$ \begin{equation}\Gamma_{yz} =\mathcal{E} \mathbf{Y}\mathbf{Z}^† = \mathcal{M} \Theta(\mathbf{X}) \Psi^† (\mathbf{X}) = \int \limits_{-\infty}^{\infty} \ \Theta(x)\Psi^†(x) f (x) dx \label {11} \end{equation} $$
Kowariancja wzajemna
$$ \begin{equation} \mathbf{C}_{yz} =Cov (\mathbf{Y} \mathbf{Z})= \mathbf{C}_{yz} = \mathcal{E} Y^0 Z^{0†}= \int \limits_{-\infty}^{\infty} [\Theta(x) – \mu_y][\Psi^†(x) – \mu_z^†] f(x)dx \label {12} \end{equation} $$
W przypadku, gdy, $\Psi(\mathbf{X}) \equiv \mathbf{X}$ – z ($\ref{12}$) uzyskujemy wyrażenie na kowariancję $\mathbf{C}_{xy}$ wektora $\mathbf{X}$ i $\mathbf{Y}$:
$$ \begin{equation} Cov (\mathbf{X} \mathbf{Y})= \mathbf{C}_{xy} = \mathcal{E} X^0 Y^{0†} = \int \limits_{-\infty}^{\infty} [X – \mu_y] [\Theta^†(x) – \mu_y^†] f(x)dx \label {13} \end{equation} $$
Korelacja
Współczynnik korelacji zmiennych losowych $\mathbf{X}$ i $\mathbf{Y}$ o wartościach oczekiwanych $\mu_x$ i $\mu_y$ oraz odchyleniach standardowych $\sigma_x$ i $\sigma_y $, oraz kowariancji zmiennych $C_{xy}$ , jest wartością oczekiwaną iloczynu standaryzowanych zmiennych [1]:
$$ \begin{equation} \rho_{xy}= \rho \{\mathbf{X}, \mathbf{Y}\}= \mathcal{E} \left \{ \cfrac {X-\mu_x}{\sigma_x} \cdot \cfrac {Y-\mu_y}{\sigma_y} \right\}= \cfrac {C_{xy }} {\sigma_x \cdot \sigma_y} \label{14} \end{equation} $$
Współczynnik korelacji określa siłę sprzężenia zmiennych i przyjmuje wartość w przedziale
$$ \begin{equation} -1 \le \rho_{xy}\le 1 \label{15} \end{equation} $$
Wartość $ \rho_{xy}=0 $ oznacza brak związku (sprzężenia), a dla zmiennych rozłożonych normalnie – niezależność zmiennych. Dla $ \rho_{xy} = 1 $ sprzężenie jest silnie dodatnie, to znaczy wzrost (lub zmniejszenie) $X$ najczęściej prowadzi do wzrostu (lub zmniejszenia)$Y$. Na odwrót dla $ \rho_{xy}= – 1 $ relacja jest odwrotnie proporcjonalna.
Regresja
W definicji statystycznej współczynnik determinacji regresji $R^2$ jest kwadratem korelacji między wartościami obserwowanymi $\mathbf{Y}$ i dopasowanymi $ \check {\mathbf {Y}}$, liczonym zgodnie z zależnością ($\ref{40}$)
$$ \begin{equation} R^2 = \rho^2( Y, \check{Y}) \label {16}\end{equation} $$
Uwaga:
Do obliczenia wartości oczekiwanej oraz kowariancji nieliniowej funkcji losowego wektora wystarczy znajomość tylko gęstości rozkładów brzegowych prawdopodobieństwa argumentu funkcji $\mathbf{X}$ funkcji.
Współczynnik niezawodności β wg normy PN-EN 1990
Miarą prawdopobieństwa zniszcczenia konstrukcji $p_f$ jest wg normy PN-EN-1990 [2] jest współczynnik niezawodności $\beta$ związany zprowdopdobieństwm zniszczenia $p_f$ \Phi (-\beta)
$$ \begin{equation} p_f \stackrel {def}{=} \Phi(-\beta) \label{57} \end{equation} $$
gdzie; $\Phi()$ jest standaryzowaną dystrybuantą normalnego rozkładu prawdopodobieństwa.
Współczynnik niezawoedności jest kwantylem standaruyzowanego rozkłądu normalnego $\mathcal N (0,1)$ rzędu $p_f$
Tabelaryczne przedstawienie funkcji ($\ref{57}$) pokazano w tab. 6.
Prostą interpretację współczynnika niezawodności uzyskuje się, dla funkcji granicznej g()=0 przedstawionej w postaci ($\ref{20}$), zależnej od dwóch zmiennych losowych: wytrzymałości $R$ i obciążeń $E$ zapisanej w postaci ($\ref{20}$), kryterium niezawodności można zapisać następująco
$$ \begin{equation} \beta =\cfrac{\mu_g}{\sigma_g}= \cfrac{\mu_R -\mu_E}{\sqrt{\sigma_R^2 +\sigma_E^2}}\ge \beta_{min} \label{18} \end{equation} $$
gdzie: $\beta_{min}$ wg tab 7.
W zależności od planowanej trwałości przewiduje się pięć kategorii budynków: 1. tymczasowe (przykłady: biura sprzedaży, tymczasowe budynki wystawowe) ; 2 o krótkim okresie użytkowania $10 < T \le 25 \, lat$ (przykłady: konstrukcje tymczasowe i budynki gospodarcze); 3 o średnim okresie użytkowania $25 < T \le 50 \, lat$ (przykłady: większość budynków przemysłowych, parkingi); 4 o zwykłym okresie użytkowania $25 < T \le 50 \, lat$ (przykłady: typowe konstrukcje budowlane, takie jak budynki mieszkalne i biurowe projektowane z tradycyjnych materiałów); 5 – o długim okresie użytkowania $ 50 < T \le 100 \, lat$ (przykłady: konstrukcje zabytkowe lub inne konstrukcje oJ szczególnym znaczeniu, dla których przewiduje się dłuższy okres użytkowania, np. podziemne części budynków, mosty).
Przykłady: budynki rolnicze, w których ludzie zazwyczaj nie przebywają oraz szklarnie)
Przykłady: budynki mieszkalne i biurowe oraz budynki użyteczności publicznej, których konsekwencje zniszczenia są przeciętne,
W tab 7 zielonym tłem wyróżniona wartości dla których ustalane są częściowe współczynniki bezpieczeństwa w normach. Dla pośrednich lub dłuższych okresów odniesienia wymagane wskaźniki niezawodności praz częściowe współczynniki bezpieczeństwa należy wyznaczyć indywidualnie zgodnie z procedurami pokazanymi w normie [2].
Niezawodność mierzona współczynnikiem niezawodności o wartości
$$ \begin{equation} \beta = 3,8\label{17} \end{equation} $$
jest szczególnie ważna w projektowaniu konstrukcji budowlanych, ponieważ jest to minimalna wartość niezawodności wymagana od zwykłych konstrukcji budowlanych, dla których wymagana jest niezawodność w projektowanym okres użytkowania (okres powrotu obciążeń klimatycznych) T= 50 lat. Oznacza to, że w okresie 50 lat dopuszcza się tylko raz przekroczenie normowego poziomu obciążeń klimatycznych i innych zmiennych.
Metody szacowania niezawodności konstrukcji oraz przygotowania danych
Tab.9 Porównanie głównych metod szacowania niezawodności konstrukcji
Tab.10 Porównanie metod normalizacji losowego wektora stanu konstrukcji
Bezpieczeństwo, a niezawodność konstrukcji
Na rys. 1 pokazano dwuwymiarową przestrzeń losową losowych zmiennych stanu $X_1$ oraz $X_2$ o wartościach oczekiwanych $\mu_1$ i $\mu_2$ i odchyleniami standardowymi $\sigma_1$ i $\sigma_2$ odpowiednio z gęstością łącznego rozkładu prawdopodobieństwa oznaczonego elipsoidalnymi warstwicami. Linią grubą naniesiono granicę $g(X_1,\, X_2) = 0$ pomiędzy obszarem stanów zniszczenia $\Omega_f$, i obszarem stanów bezpiecznych $\Omega_r$. Symbolem NPP oznaczono „Najbardziej Prawdopodobny Punkt” (zwany często punktem projektowym $\mathbf{x}^*$), stosowany w praktycznych obliczeniach niezawodności konstrukcji budowlanych. Miarą niezawodności konstrukcji jest indeks niezawodności $\beta$, który wskazuje najmniejszą odległość środka rozkładu od funkcji granicznej g(), Odchylenie standardowe $\sigma$ rozkładu łącznego w przypadku normlanych rozkładów brzegowych zmiennych stanu wynosi $\sigma =\sqrt{\sigma_1^2 +\sigma_2^2}$.
Bezpieczeństwo
Bezpieczeństwo i niezawodność są podstawowymi pojęciami projektowania, realizacji i eksploatacji budowli. Powszechnie utożsamia się niezawodność z bezpieczeństwem. Wynika to stąd, że praktycznie nie wystąpi stan w którym konstrukcja jest niezawodna, ale nie jest bezpieczna lub jest bezpieczna, ale nie jest niezawodna. W otoczeniu systemu lub osoby niezawodnej najczęściej czujemy się bezpiecznie. Jedynie w przypadku, gdy system niezawodnie chce wyrządzić krzywdę poczucie bezpieczeństwa znika. Bezpieczeństwo jest postrzeganiem subiektywnym, odczuciem. Niezawodność jest wielkością obiektywną i w zwykłych sytuacjach pociąga za sobą bezpieczeństwo.
Autor uważa, żę subiektywne stany bezpieczeństwa należy wprowadzić w niezawodnościowe kryteria jakości systemu; nadać im status specyficznego stanu granicznego – stanu bezpieczeństwa.
Stan bezpieczeństwa wystąpi obok klasycznego stanu nośności i stanu użytkowalności. Przyjmujemy, że zwiększenie niezawodności systemu, zmniejsza zagrożenie zewnętrzne, więc zwiększa bezpieczeństwo. Odwrotny związek będzie „egzotycznym” wyjątkiem. W normach [6], [7] definiuje się ścisłą zależność między docelowym poziomem niezawodności a konsekwencjami zniszczenia i kosztami zapewnienia bezpieczeństwa.
W podejściu tym niezawodność i bezpieczeństwo są traktowane jako synonimy, co prowadzi do tautologii w naukach technicznych. Istnieją sytuacje, w których zwiększenie bezpieczeństwa może obniżyć niezawodność, jak w przypadku systemu komunikacji, gdzie awaria jednego pojazdu może wstrzymać ruch całego systemu, co ilustruje konflikt między tymi dwoma pojęciami. Jeśli jednak zdefiniujemy niezawodność szerzej, w dłuższym okresie czasu lub dla w większym obszarze, to stwierdzimy, że zwiększenie bezpieczeństwa zawsze działa w kierunku zwiększenia niezawodności i odwrotnie. Systemy są monotoniczne w szerszym aspekcie: zwiększenie niezawodności lub bezpieczeństwa jednego elemntu systemu, zwiększa niezawodność całego systemu.
Bezpieczeństwo w znaczeniu ogólnym oznacza brak zagrożenia życia i zdrowia ludzi oraz strat ekonomicznych, społecznych i ekologicznych w projektowanym czasie użytkowania [8]. Bezpieczeństwo jest stanem wolnym od wypadków lub strat [9]. Bezpieczeństwo jest uwolnieniem się od szkody lub zagrożenia. Stanem bezpiecznym jest stan , w którym nie jest niebezpieczne lub szkodliwie. Miejsce jest bezpieczne jeśli jest wolne od szkód lub niebezpieczeństw. Urządzenie bezpieczeństwa – urządzenie do zapobiegania obrażeniom lub niebezpieczeństwu [10])
Frei [11] wyróżnia:
- stan braku bezpieczeństwa – wówczas gdy występuje duże rzeczywiste zagrożenie, a postrzeganie tego zagrożenia jest prawidłowe;
- stan obsesji występuje wtedy, gdy nieznaczne zagrożenie jest postrzegane jako duże;
- stan fałszywego bezpieczeństwa ma miejsce wówczas, gdy zagrożenie jest poważne, a postrzegane bywa jako niewielkie;
Stan bezpieczeństwa występuje wtedy, gdy zagrożenie zewnętrzne jest nieznaczne, a jego postrzeganie prawidłowe.
Murzewski (1989) [12] zaproponował rozdziału niezawodności i bezpieczeństwa z wykorzystaniem punktu obliczeniowego (R*,E*)= (R- wytrzymałość, E- obciążenia). Ponieważ jednak punkt oliczeniowy ()*jest punktem „sztucznym” zaproponowanym w pracy [13] w celach czysto numerycznych w przybliżonych procedurach wyznaczania indeksu niezawodności$\beta$ jako wielkość pomocnicza i wtórna, to ten punkt nie powinien służyć do zdefiniowania wielkości podstawowej, a propozycja Murzewskiego nie może być poprawna.
Bezpieczeństwo objawia się akceptowalnym poziomem ryzyka utraty czegoś dla podmiotu szczególnie cennego – życia, zdrowia, pracy, szacunku, uczuć, dóbr materialnych i dóbr niematerialnych. Jego brak wywołuje niepokój i poczucie zagrożenia. Zagrożenie bezpieczeństwa powinny być przedmiotem działań zmierzających do ich likwidowania [14]. Bezpieczeństwo jest fenomenem psychologicznym, naturalną potrzebą człowieka i charakteryzuje stan psychiczny; jest inaczej postrzegane i definiowane w psychologii klinicznej, psychoanalizie, socjologii. Jest to stan emocji – poczucie bezpieczeństwa najczęściej wiąże się z pozytywnym nastrojem. Jest ważnym pojęciem w nauce pracy oraz w obronności.
Bezpieczeństwo w budownictwie dotyczy przede wszystkim życia i zdrowia pracownika budowlanego, użytkownika (mieszkańca lub pracownika), klienta) , ale także dóbr materialnych (obiektu, zgromadzonego towaru i wyrobów, dobytku, itd.). Przejawem stopnia bezpieczeństwa w obiekcie budowlanym jest katastrofa budowlana, Przy braku katastrof budowlanych możemy wnioskować, ze obiekt jest niezawodny (i bezpieczny).
Z definicji katastrofa budowlana to gwałtowne , niezamierzone zniszczenie obiektu budowlanego lub jego części. Nie jest katastrofą uszkodzenie elementu budowlanego nadającego się do naprawy, uszkodzenie lub zniszczenie urządzeń budowlanych jak również awaria instalacji
Statystyka katastrof budowlanych prowadzonych przez Główny Urząd Nadzoru Budowlanego wskazuje, że liczba katastrof w Polsce jest znacznie mniejsza od roku 2008, w którym osiągnięto szczyt (rys.2)

Rys.2. Katastrofy budowlane w Polsce w latach 1996 do 2024 [15]
W 2024 roku najczęstszą przyczyna katastrof były zdarzenia losowe (82%). a w dalszej kolejności błędy podczas eksploatacji obiektu( (14%) i błędy podczas wznoszenia lub innych robót budowlanych (4%). Błędy podczas opracowania dokumentacji obiektu budowlanego wskazywano tylko w 2%. Katastrofie najczęściej ulegały budynki mieszkalne (39%), a następnie gospodarcze i inwentarskie (37%). Najczęściej ulegały katastrofie konstrukcje murowe (60%), drewniane (12%),a najrzadziej żelbetowe monolityczne (2%). Najczęściej ulegały awarii słupy, a następnie przekrycie.
Niezawodność
Niezawodność w znaczeniu ogólnym jest to zdolność konstrukcji do pełnienia projektowanych funkcji w określonym czasie eksploatacji.
Zarówno konstrukcja, jak i oddziaływania środowiska, ale także kryteria oceny jakości konstrukcji (zdolności do wypełnienia zadanych funkcji), są losowe i mogą być zmienne w czasie. Konsekwencją tego jest to, że miarą niezawodności jest prawdopodobieństwo tego, że konstrukcja nie przekroczy określonych stanów granicznych w założonym okresie eksploatacji. Poziom niezawodności różnych stanów i różnych elementów może być różny. Różne poziomy niezawodności można przyjmować przy obliczaniu stanu nośności konstrukcji, inne, mniejsze w przypadku obliczania stanu użytkowalności. Różnice poziomów niezawodności powinny być brane pod uwagę w przypadku konstrukcji jako całość, natomiast niższe w przypadku poszczególnych elementów składowych ,co jest związane z budową systemu niezwodnościowego i szeregowych, równoległych lub mieszanych połączeń między elementami
W raporcie [16] przyjmuje się definicję, że bezpieczeństwo, to stan wolny od warunków, które mogą spowodować śmierć , uszkodzenie, choroby zawodowe, uszkodzenie lub utratę sprzętu lub mienia, lub szkodę dla środowiska.
Ta definicja spotkała się z dużą krytyką, przy czym największe kontrowersje sprawiało słowo „stan wolny”. Wprowadzano inne definicje, dopuszczające ryzyko zamiast totalnego uwolnienia. Przyjmowano, że bezpieczeństwo wystąpi na akceptowanym poziomie ryzyka [17], a stąd krok do utożsamienia bezpieczeństwa z niezawodnością definiowaną jako
$$ \begin{equation} R ( t ) = r = Prob \, \{ t \ge \tau \} \label{19} \end{equation} $$
gdzie:
$R( t )$ – niezawodność jako zmienna czasu $t$,
$t$ – czas pracy bez uszkodzenia,
$ \tau$ – założony (lub wymagany) czas pracy bez uszkodzenia.
Z definicji Niezawodność (ang reliability) systemów technicznych, w tym konstrukcji budowlanych, to własność obiektu mówiąca o tym, czy pracuje on poprawnie (spełnia wszystkie powierzone mu funkcje i czynności) przez wymagany czas i w określonych warunkach eksploatacji (w danym zespole czynników wymuszających). Miarą niezawodności obiektu jest prawdopodobieństwo wystąpienia zdarzenia opisane definicją ($\ref{1}$).
Definicje podstawowe
Stosować będziemy oznaczenia i definicje zgodnie z normami [6], [2]:
- Element konstrukcyjny – fizycznie wyróżnialna cześć konstrukcji, np. słup, belka, płyta, pal fundamentowy,
- Konstrukcja – uporządkowany zespół połączonych ze sobą części, zaprojektowanych w celu przenoszenia obciążeń i zapewnienia odpowiedniej sztywności.
- Ustrój, system konstrukcyjny – elementy nośne obiektów budowlanych oraz sposób, w jaki te elementy ze sobą współpracują.
- Zgodność – spełnienie określonych wymagań,
- Niezawodność – zdolność konstrukcji lub elementu konstrukcyjnego do spełnienia określonych wymagań, łącznie z uwzględnieniem projektowanego okresu użytkowania na który została zaprojektowana. Niezawodność wyraża się zwykle miarami probabilistycznymi. Niezawodność obejmuje nośność, użytkowalność i trwałość konstrukcji,
- Klasa niezawodności konstrukcji – klasa konstrukcji lub elementów konstrukcyjnych, dla których wymagany jest określony stopień niezawodności,
- Oddziaływanie $F$ a) zbiór sił przyłożonych do konstrukcji (oddziaływania bezpośrednie), b) zbiór wymuszonych odkształceń lub przyspieszeń, zasadniczo spowodowanych innymi wpływami niż wymienionymi w a)
- Efekt oddziaływania $E$ , efekt oddziaływań (lub oddziaływania) na element konstrukcji (np. siła wewnętrzna, moment, naprężenie, odkształcenie) lub na całą konstrukcję (np. ugięcie, obrót),
- $p_f$- prawdopodobieństwo zniszczenia,
- $p_s$ – prawdopodobieństwo przetrwania,
- $r =p_s$ – niezawodność systemu ,
- $Prob \, \{.\}$ – prawdopodobieństwo,
- $g$- funkcja stanu granicznego,
- $\Phi$- funkcja rozkładu prawdopodobieństwa standaryzowanego rozkładu normalnego,
- $\beta$ – współczynnik niezawodności,
- $X$ – zmienna losowa,
- $x$ – realizacja (wartość) zmiennej losowej
- $f_X$ – funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej X,
- $f_X(x)$ – wartość funkcji gęstości w punkcie dla rzędnej $x$
- $F_X$ – dystrybuanta rozkładu prawdopodobieństwa zmiennej losowej X,
- $\mu_x = \overline X $ – wartość średnia zmiennej losowej X,
- $\sigma_X$ – odchylenie standardowe zmiennej losowej X,
- $v_X$ – współczynnik zmienności zmiennej losowej X,
- $R$ – nośność,
- $E$ – obciążenie (efekt oddziaływania, np. siła osiowa , moment zginający, bimoment, itd)
- $X, x$ – zmienna losowa i jej wartość (kwantyl).
Przy oznaczeniach jak wyżej definiuje się pojęcia:
- równanie stanu granicznego
$$ \begin{equation} g = R – E = 0 \label{20} \end{equation} $$
lub przy zastosowaniu równania powierzchni granicznej w przestrzeni zmiennych losowych systemu zestawionych w wektor $\mathbf{X}$,
$$ \begin{equation} g ( \mathbf{X}) = 0 \label{21} \end{equation} $$
gdzie $\mathbf{X}$ wektor losowy o rozmiarze (1×n) , złożony z losowych zmiennych stanu systemu
$$ \begin{equation} \mathbf{X} = [ X_1, \, X_2, \,\, … , \, X_i , \, … , \, X_n]^T_{(1×n)} \label{22} \end{equation} $$
- prawdopodobieństwo zniszczenia
$$ \begin{equation} p_f = Prob \, \{g \le 0 \} \label{23} \end{equation} $$
- prawdopodobieństwo przeżycia (sukcesu), niezawodność
$$ \begin{equation} r = p_s = 1 – p_f = Prob \, \{g > 0 \} \label{24} \end{equation} $$
- współczynnik niezawodności $\beta$,
$$ \begin{equation} \beta = \cfrac {\mu_g} {\sigma_g} \label{25} \end{equation} $$
gdzie:
$\mu_g$ i $\sigma_g$ są wartością oczekiwaną oraz odchyleniem standardowym zmiennej (${20}$) lub (${21}$)
Dla innych rozkładów $g$ niż normalny $\beta$ jest tylko umowną miarą niezawodności.
- metoda probabilistyczna – oznacza, że metodę analizy konstrukcji, taką, że jest tak zaprojektowana , aby prawdopodobieństwo zniszczenia $p_f$ nie przekroczyło granicznej wartości $p_{f,lim}$ w określonym okresie czasu:
$$ \begin{equation} p_f < p_{f,lim} \label{26} \end{equation} $$
lub jej niezawodność $r$ będzie nie mniejsza od wymaganej $r_{min}$
$$ \begin{equation} r =p_s= 1-p_f \ge r_{min} \label{27} \end{equation} $$
Niezawodność systemu i elementu
System elementów
W kategoriach obszarów stanów pożądanych $\Omega_r$ lub niepożądanych $\Omega_f$ niezawodność systemu $r$ ($\ref{24})$ i elementu $r_i$ można zdefiniować jak następuje:
- zawodność – jest związana z przejściem stanu granicznego od stanu pożądanego do stanu niepożądanego z obszaru $\Omega_f$.
- niezawodność jest przeciwieństwem zawodności, czyli utrzymaniem się systemu lub elementu w stanach pożądanych z obszaru $\Omega_r$, to znaczy jest zdarzeniem, polegające na tym , system pracuje bez uszkodzenia,
- obszar stanów pożądanych (bezpiecznych )
$$ \begin{equation} \Omega_r : g ( \mathbf{X} > 0) \label{28} \end{equation} $$
- obszar stanów niepożądanych (niebezpiecznych)
$$ \begin{equation} \Omega_f : g( \mathbf{X} \le 0) \label{29} \end{equation} $$
niezawodność ($\ref{24}$) przy wykorzystaniu definicji obszaru stanów bezpiecznych można zapisać w postaci:
$$ \begin{equation} r = Prob \, \{ \mathbf{x}\in \Omega_r \} = \int \limits_{\Omega_r} f_X (\mathbf{x}) dx \label{30} \end{equation} $$
prawdopodobieństwo awarii ($\ref{23}$)
$$ \begin{equation} p_f = 1 – r = Prob \, \{ \mathbf{x} \in \Omega_f \} = \int \limits_{\Omega_f} f_X ( \mathbf{x}) dx \label{31} \end{equation} $$
Element – składowa systemu
zdarzenie zniszczenia elementu „i” $ \Omega_{f, i} = \overline \Omega _i $
zdarzenie niezawodności elementu „i” $ \Omega_{r, i} = \Omega _i $
prawdopodobieństwo zniszczenia (awaryjności, zawodności, usterkowości, uszkodzenia ) i-tego elementu
$$ \begin{equation} p_{f, i} = Prob \, \{ g_i <\le 0\} = Prob \, \{ \overline \Omega_i \} = 1-p_{s,i} =1- r_i \label{32} \end{equation}$$
prawdopodobieństwo niezawodności (krótko nazywane niezawodnością) i-tego elementu
$$ \begin{equation} r_i = p_{s, i} = Prob \, \{ g_i > 0\} = Prob \, \{ \Omega_i \} = 1 – p_{f,i} \label{33} \end{equation}$$
Niezawodność mierzona współczynnikiem niezawodności β
Niezawodność może być mierzona współczynnikiem niezawodności $\beta$ ($\ref{24}$), który jest po prostu odmierzany w innej skali i jest wprost przeliczalny z prawdopodobieństwa zniszczenia lub niezawodności:
$$ \begin{equation} \beta = \Phi^{-1} (p_f) \label{34} \end{equation} $$
w tab.1. podano numeryczną zależność pomiędzy $\beta$ i $p_f$ w przypadku rozkładu normalnego.
Z probabilistycznego punktu widzenia można przyjąć, że element „i” ma jedną określoną postać niespełnienia niezawodności.
Ustrój, czyli zbiór elementów może mieć więcej niż jedną postać, ale też może także składać się z dwóch lub więcej elementów, charakteryzujących się jedną postacią niespełnienia.
Podstawowe struktury niezawodnościowe
W rozdziale omówiono podstawowe struktury (systemy) z punktu widzenia niezawodności: systemy szeregowe i równoległe. Systemy szeregowe (łańcuchy) są modelem konstrukcji statycznie wyznaczalnych. Systemy równoległe (wiązki) są modelem konstrukcji statycznie niewyznaczalnych. Artykuł zilustrowano przykładami podstawowych struktur i opatrzono wnioskami ważnymi dla Konstruktora i Architekta obiektów budowlanych.
Na rys. 4 pokazano schematy blokowe podstawowych struktur niezawodnościowych: szeregowych i równoległych. Przykładem struktury szeregowej jest statycznie wyznaczalna konstrukcja (kratownica, rama, płyta , itd) . Przykładem struktury równoległej jest konstrukcja statycznie niewyznaczalna. Zarówna system szeregowy jak i równoległy (lub systemy mieszane szeregowo-równoległe) są modelami tradycyjnych systemów konstrukcyjnych, z elementami wbudowanymi na stałe (obciążonymi).
Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych.

Rys. 4 Podstawowe modele niezawodnościowe: a) szeregowy, b) równoległy czyli rezerwy obciążonej , c) rezerwy nieobciążonej [18]
Analizujemy systemy, w których uszkodzenia elementów $\overline \Omega_i$ są zdarzeniami wzajemnie niezależnymi. Niezależnymi są więc również zdarzenia dopełniające $\Omega_i$.
Szeregowa struktura niezawodnościowa. Statystyczny efekt skali (osłabienia)
W systemie (strukturze, układzie, modelu, schemacie ) szeregowym cały system pracuje, jeśli wszystkie elementy pracują, to znaczy system szeregowy ulega awarii, jeśli choć jeden z elementów ulegnie awarii.
Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych.
W tym przypadku przy liczbie elementów $n$:
$$ \begin{equation} p_s=Prob \,\{ \Omega_1 \cup \Omega_2 \cup … \cup\Omega_n\}\label{35} \end{equation} $$
i w ślad za przyjętym założeniem o niezależności uszkodzeń elementów
$$ \begin{equation} p_s=Prob \, \{ \Omega_1 \} \cdot Prob \, \{ \Omega_2 \} \cdot … \cdot Prob \, \{ \Omega_n \}\label{36} \end{equation} $$
czyli
$$ \begin{equation} p_s= \prod \limits_{i=1}^n p_{s_i}\label{37} \end{equation} $$
Formuła ($\ref{37}$) jest zasadą mnożenia niezawodności (prawdopodobieństw bezawaryjnej pracy) elementów systemu szeregowego. Wyraża ona również tak zwany
Statystyczny efekt skali: „im więcej elementów zawiera system szeregowy, tym mniejsza jest jego niezawodność”.
W celu doświadczalnego potwierdzenia zasady ($\ref{36}$) wystarczy przeprowadzić doświadczenie z nitką (długą liną w konstrukcjach budowlanych).
W celu urwania nitki rozwijamy ją ze szpuli i łatwo zrywamy, ale jeśli nie można jej rozwinąć i nitka jest krótka, to trudno ją zerwać i należy użyć nożyczek lub zębów do przecięcia nitki.
Z zależności ($\ref{37}$) wynika, że nigdy niezawodność systemu szeregowego nie jest większa od niezawodności najsłabszego elementu (ogniwa). W takim razie dla systemu szeregowego mamy:
$$ \begin{equation}p_s \le \min \limits_i p_{s_i} \label{38} \end{equation} $$
Jeśli oznaczymy przez $p_{f_i}$ prawdopodobieństwo zniszczenia i-tego elementu, to ($\ref{38}$) możemy zapisać w postaci:
$$ \begin{equation} p_s= \prod \limits_{i=1} \limits^n (1-p_{f_i})\label{39} \end{equation} $$
Rozkładając wielomian, będący wynikiem iloczynu ($\ref{39}$) w szereg Newtona i odrzucając wyrazy rzędu wyższego niż liniowy (które są istotnie mniejsze o członów liniowych, bowiem bardzo małe są prawdopodobieństwa zniszczenia poszczególnych elementów budowlanych), otrzymamy oszacowanie
$$ \begin{equation} p_s \cong 1- \sum \limits_{i=1} \limits^n p_{f_i} \label{40} \end{equation} $$
Na rys. 5 pokazano zależność niezawodności systemu szeregowego $p_s$ od liczby n elementów o takiej samej niezawodności elementów $p_{si}=0,95 ; 0,98$ lub $0,99$.
Spadek niezawodności systemu wraz ze zwiększaniem się liczby elementów jest bardzo szybki, a zwiększanie niezawodności pojedynczych elementów wpływa stosunkowo mniej na zwiększenie niezawodności systemu.

Rys.5. Niezawodność systemu szeregowego $p_s$ w funkcji liczby elementów $n$ [18]
Statystyczny efekt skali obserwowany jest zarówno w prętach, jak i w ustrojach powierzchniowych (powłoki, płyty, ściany), a także w ustrojach trójwymiarowych (bryłach). Systematycznie obserwuje się, że konstrukcja o większych rozmiarach (większej liczbie elementów skończonych) jest słabsza od konstrukcji z mniejszą liczba elementów.
Zwiększenie niezawodności systemu szeregowego najlepiej przeprowadzić, realizując strategię:
- wyszukać najsłabszy element w systemie i zwiększyć jego nośność, więc również niezawodność
- sprawdzić nośność systemu i w przypadku niezadawalającego wyniku, przeprowadzić pkt 1 dla kolejnego elementu
- po każdym kroku starać się zmniejszyć liczbę elementów połączonych szeregowo.
W opisanej strategii uwzględniono dwa ważne wnioski z przeprowadzonych analiz:
1) o nośności i niezawodności systemu szeregowego decyduje najsłabszy element (najsłabsze ogniowo),
2) niezawodność systemu szeregowego gwałtownie spada wraz z e zwiększającą się liczbą elementów połączonych szeregowo.
3) niezawodność systemu szeregowego zależy nie tylko od liczby elementów (ogniw) składowych, ale także od poziomu ich niezawodności.
Równoległa struktura niezawodnościowa. Statystyczny efekt wzmocnienia
System z elementami połączonymi równolegle (rys.4b) nie ulegnie zniszczeniu, dopóki nie zniszczą się wszystkie elementy systemu o liczebności $m$. Niezawodność $p_s$ systemu równoległego wyznaczymy z zależności:
$$ \begin{equation} p_s = Prob \, \{ \overline \Omega_1 \cap \overline \Omega_2 \cap … \cap \overline \Omega_m \cap \} \label{41} \end{equation} $$
gdzie $\Omega_i$ oraz $\overline \Omega_i$ – są wzajemnie dopełniającymi zdarzeniami – zdarzenie oznaczone nadkreśleniem oznacza zdarzenie przeciwne i w tym przypadku zniszczenie elementu.
Jeśli zdarzenia $\Omega_i$ są wzajemnie niezależne, to również $ \overline \Omega_i $ są wzajemnie niezależne, a jeśli tak, to zachodzi:
$$ \begin{equation} p_s = 1-p_f=1-\prod \limits_{i=1} \limits ^m (1-p_{si}) \label{42} \end{equation} $$
Takie połączenie równoległe (elementów obciążonych – wbudowanych na stałe) jest typowe dla tradycyjnych konstrukcji budowlanych.
Na rys.6 pokazano zależność niezawodności $p_s$ systemu równoległego od liczby $m$ elementów w wiązce o takiej samej niezawodności każdego elementu $p_{si}$. Obserwujemy zwiększanie się niezawodności systemu równoległego wraz ze zwiększaniem się liczby elementów w wiązce.
Przy dużych niezawodnościach elementów ( z takimi mamy do czynienia w budownictwie) przyrost niezawodności systemu równoległego jest wolny dla liczby elementów większych od 3-ch., a przy podłączeniu czwartego elementu praktycznie nie obserwujemy zwiększenia niezawodności systemu.

Rys.6. Niezawodność systemu równoległego $p_s$w funkcji niezawodności elementów $p_{si}$. Krzywe dla różnej liczby elementów $m$ [18]
Własności systemu równoległego powodują, że zwykle rozumie się go jako sposób zwiększenia niezawodności systemu poprzez zwiększenie liczby elementów połączonych równolegle. Jednakże taka cecha struktury nie zawsze skutecznie prowadzi do celu. Zwiększanie liczby elementów równoległych powyżej czterech okazuje się narzędziem mniej skutecznym i w istocie niezbyt wygodnym w stosunku do prostej wymiany jednego elementu na element o większej niezawodności.
Tym niemniej należy zauważyć, że w systemie równoległym następuje statystyczny efekt zwiększenia niezawodności systemu wraz ze zwiększającą się liczbą elementów składowych. Obserwujemy więc zjawisko przeciwne niż w systemach szeregowych.
Wynika stąd ważny wniosek dla Konstruktora konstrukcji budowlanych:
Połączenia szeregowe elementów konstrukcji (statycznie wyznaczalnych) prowadzą do istotnego zmniejszania niezawodności, natomiast połączenia równoległe elementów konstrukcji (statycznie niewyznaczalnych) prowadzą do niewielkiego zwiększenia niezawodności systemu, wraz ze zwiększaniem się liczby elementów.
Złożone struktury niezawodnościowe
Złożone modele
W budowlanej praktyce inżynierskiej mamy najczęściej do czynienia ze złożonymi strukturami niezawodnościowymi, polegającymi na połączeniu w szereg struktur równoległych lub równoległym połączeniu łańcuchów lub też innych struktur i na dodatek z elementami wspólnymi w różnych strukturach.
Na rys. 7 pokazano model struktury z podzielonym rezerwowaniem, czyli strukturę w której systemy równoległe połączono w szereg.

Rys. 7 Struktura z podzielonym rezerwowaniem (równoległe w szeregu) [18]
Przykładem takiej struktury jest konstrukcja z powielonymi układami statycznie niewyznaczalnymi. W tym przypadku prawdopodobieństwo bezawaryjnej pracy mxn elementów, każdy o niezawodności $p_{si}$ można obliczyć z zależności
$$ \begin{equation} p_{s, podzielone} = [1-(1-p_{si})^m]^n \label{43} \end{equation} $$
gdzie m jest liczbą elementów w każdej strukturze równoległej, a n liczbą ogniw w łańcuchu.
Na rys. 8 przedstawiono wykresy uzyskane z zależności ($\ref{43}$).

Rys.8. Podzielone rezerwowanie [18]: $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$, linie ciągłe dla $p_{si}=0,7$
Na rys. 9 pokazano model struktury z ogólnym rezerwowaniem, czyli ze strukturami szeregowymi, połączonymi równolegle.

Rys. 9 Struktura z ogólnym rezerwowaniem (równoległe w szeregu) [18]
W tym, przypadku niezawodność struktury można obliczyć z zależności
$$ \begin{equation} p_{s, ogolne} =1-(1-p_{si}^n)^m \label{44} \end{equation} $$
Na rys.10 przedstawiono zależności uzyskane z formuły ($\ref{44}$).

Rys.10. Ogólne rezerwowanie [18] : $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$, linie ciągłe dla $p_{si}=0,7$
Zależności ($\ref{43}$), ($\ref{44}$) można uogólnić na przypadek, gdy struktury mają inną liczbę elementów $m$ i $n$ w sposób pokazany w pracy [18] .
Dla przypadków bardziej ogólnych połączeń zaleca się [18] rozpatrywać iteracyjnie, analizując możliwe kombinacje połączeń.
Wykresy rys. 6 i 8 pokazują , że na niezawodność systemu najbardziej wpływa liczba elementów połączonych szeregowo. Wpływ liczby połączeń równoległych jest istotny przy niewielkiej liczbie połączeń i dla $m>4$ jest praktycznie nieistotny. Wpływ liczby elementów i połączeń zmniejsza się jeśli niezawodność poszczególnych elementów jest duża, co jest charakterystyczne dla konstrukcji budowlanych. Wprowadzenie rezerwowych elementów daje lepsze efekty od wprowadzenia rezerwowych układów.
Wynika stąd, że konieczne jest rozpatrywanie struktury w całości. Projektowanie konstrukcji element po elemencie bez analizy połączeń niezawodnościowych może prowadzić do istotnego niedowymiarowania konstrukcji i wywołania katastrofy budowlanej, czego przykłady dostarczane nam są dość często.
Niezawodność konstrukcji należy rozpatrywać we wczesnym stadium projektowania, wówczas gdy wniesienie zmian nie powoduje znacznych strat, co będzie najbardziej znaczące na etapie eksploatacji.
Korelacja konstrukcyjna
Korelacji funkcyjna jest mierzona współczynnikiem korelacji ($\ref{40}$). Konstrukcyjny współczynnik korelacji będziemy szacować analogicznie, z zależności uzyskiwanych na teoretycznym modelu konstrukcji ( zależności teorii sprężystości lub mechaniki ), albo też w wyniku nadań numerycznych na modelu MES, bądż z modelu poddanego badaniom eksperymentalnym.
Statyczna liniowość nie oznacza liniowości probabilistycznej bowiem konstrukcja zwiera wiele zmiennych losowych o różnych rozkładach i powiązanych nieliniowo. Ponadto konstrukcje rzeczywiste są obarczone szeregiem imperfekcji geometrycznych (imperfekcje systemowe, czyli odchylenia węzłów od położenia nominalnego i imperfekcje lokalne, czyli wstępne wygięcia i skręcenia nominalnie prostych elementów prętowych i płytowych lub odchylenia od powierzchni nominalnej powłok, a także inne.
Momenty statystyczne (wartości oczekiwane, odchylenia standardowe oraz kowariancje i korelacje) losowych zmiennych wyjściowych (przemieszczenia, siły przekrojowe lub mnożnik nośności) konstrukcji rzeczywistych najczęściej wyznaczane są numerycznie. Natomiast charakterystyki statystyczne i typy rozkładów zmiennych wejściowych ( materiałów, geometrii systemu i elementów, obciążeń) uzyskuje się z pomiarów bezpośrednich.
Oszacowania niezawodności dla struktur złożonych
Ścisłe wyznaczenie niezawodności mieszanych (złożonych ) struktur z punktu widzenia niezawodności jest trudne nawet z wykorzystaniem komputera i w praktyce nie jest konieczne. Zamiast dokonywania rachunków na iloczynach splotowych dystrybuant, korzysta się z oszacowań górnego i dolnego prawdopodobieństwa zniszczenia lub niezawodności. W artykule przedstawiono klasyczne oszacowania, przydatne w obliczeniach ręcznych, oraz oszacowania dokładniejsze, możliwe w obliczeniach numerycznych, wymagające znajomości łącznego rozkładu statystycznego zniszczenia elementów systemu lub przynajmniej informacji o rozkładach brzegowych oraz o jak największej liczbie parametrów tych rozkładów i korelacji między rozkładami.
Ścieżki i cięcia (przekroje) struktury
Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne są oszacowania górne i dolne prawdopodobieństwa zniszczenia.
Mechanizm zniszczenia struktury polega na zniszczeniu tylu elementów w strukturze, by cała struktura uległa zniszczeniu. W pracy [19] wprowadzono następujące definicje:
Ścieżka (ścieżka zdatności) systemu, jest takim podzbiorem elementów systemu, że przy zdatności wszystkich elementów należących do tego zbioru, system jest w stanie zdatności. Ścieżkę nazywamy minimalną, gdy nie zawiera żadnej innej ścieżki jako podzbioru. Ścieżkę nazywa się krytyczną ze względu na element, gdy utrata zdatności przez ten element powoduje utratę zdatności przez system. Każda minimalna ścieżka jest krytyczna ze względu na dowolny swój element.
Struktura szeregowa jest więc minimalną ścieżką, w którym zniszczenie jednego elementu prowadzi do zniszczenia układu.
Cięcie (przekrój) systemu, jest takim podzbiorem elementów systemu takim, że niezdatność wszystkich elementów należących do tego zbioru, prowadzi do niezdatności systemu. Cięcie nazywamy minimalnym, gdy nie zwiera jako podzbioru żadnego innego cięcia.
Struktura równoległa jest cięciem systemu.
Na rys. 9 zilustrowano mechanizm struktury szeregowo-równoległej na rys.11a; minimalne ścieżki na rys.11b, oraz minimalne ciecia na rys 11c

Rys. 11 Minimalne cięcia b) i minimalne ścieżki c) dla systemu złożonego a) [20],rys.3.17
System z rys. 11a ma następujące ścieżki i cięcia:
- ścieżki zdatności systemu
{1,2,3,4}, }{1,2,3}, {1,2,4}, {1,2}, {1,3,4}, z których dwie ostatnie (pogrubione) są ścieżkami minimalnymi, pokazanymi na rys. 9b). - cięcia systemu
{1,2,3,4}, {1,2,3}, {1,2,4}, {2,3,4}, {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {1}, z których trzy ostatnie (pogrubione) są cięciami minimalnymi.
W ogólnym przypadku należy wyznaczyć cięcie (przekrój) struktury takie, że zniszczenie wszystkich elementów z tych zbiorów prowadzi do zniszczenia konstrukcji. Na takim k-tym cięciu może być uruchomiony mechanizm zniszczenia $M_k$. Zdarzenie polegające na uruchomienia mechanizmu $M_k \ (k=1,…,n)$ oznaczmy przez $Z_k$, a prawdopodobieństwo wystąpienia zdarzenia przez
$$ \begin{equation} { Prob \, \{Z_k\}=p_k \ , (k=1,2,..,n) }\label{45} \end{equation} $$
Zdarzenie polegające na uruchomieniu dowolnego mechanizmu i w konsekwencji zniszczenia oznaczymy przez $Z$, a prawdopodobieństwo jego wystąpienia przez
$$ \begin{equation} { Prob \, \{Z\} } =p_f \label{46} \end{equation} $$
Jeśli n mechanizmów jest możliwych, to zniszczenie struktury nastąpi, jeśli uruchomi się dowolny mechanizm, czyli:
$$ \begin{equation} { p_f\ = Prob \, \{ Z\} = Prob \, \{ Z_1 \cup Z_2 \cup … \cup Z_n \} – Prob \, \{Z_1 \cap Z_2 \} – Prob \, \{Z_1\cap Z_3\} – … + Prob \,\{Z_1\cap Z_2 \cap Z_3\} +… }\label{47} \end{equation} $$
Struktury progowe
Istnieje szereg struktur niezawodnościowych, których nie da się przedstawić za pomocą schematu blokowego, czyli nie jest strukturą szeregowo równoległą lub równoległo szeregową. Takie struktury nazywa się progowymi. Przykład struktury progowej „2 z 3” pokazano na rys. 12, Struktura progowa „2 z 3” oznacza, że system jest w stanie zdatności, gdy spośród trzech jego elementów przynajmniej dwa są w stanie zdatnościc .

Rys.12. Przykład struktury progowej: a) Struktura „2 z 3”, b) minimalne ścieżki, c) minimalne cięcia [20],rys.3.18
W konstrukcjach budowlanych statycznie niewyznaczalnych mamy w ogólności do czynienia z systemami progowymi „k z n”, to znaczy takimi systemami, w których n-elementowy system jest zdatny, jeśli zdatnych jest k elementów, przy czym $1 \le k \le n$. Na rys.13 pokazano przykłady uogólnionych struktur progowych c .

Rys.13. Struktura progowa uogólniona: a) typowa struktura rezerwy nieobciążonej, b) struktura szeregowa, c) struktura równoległa, d) struktura „k z n” (opis w tekście) [20],rys.3.22
W modelu uogólnionej struktury progowej oprócz parametrów: „n” – liczba elementów struktury, „k”- liczba tych elementów systemu, które muszą być zdatne, jeśli system ma być zdatny, wprowadzamy parametr „m”- liczba elementów czynnych systemu $m \le n$. Pozostałe elementy systemu $n-m$ stanowią rezerwę nieobciążoną. Pokazane na rys. 11 struktury progowe ilustrują przypadki szczególne:$k=m=n$ – struktura szeregowa,
$k=1$, $m=n$ – struktura równoległa,
$m= n < k$ – struktura $k z n$ w węższym sensie,
$k=m=1$, $n>1$ – typowa struktura nieobciążona (rys. 13a),
$k=m ,n$ – struktura szeregowa z wędrującą rezerwą nieobciążoną (rys. 13c),
$k<m<n$ – struktura „k z n” z wędrującą rezerwą nieobciążoną (rys. 13d).
Proste oszacowania niezawodności struktury
Dla nieskorelowanych zdarzeń $Z_i$ oraz $Z_j$ mielibyśmy prosty związek
$$ \begin{equation} { p_f= p_1+p_2+…+p_n – p_1 \cdot p_2 – p_1 \cdot p_3 -…+ p_1 \cdot p_2 \cdot p_3 + … } \label{48} \end{equation} $$
Niestety w praktyce inżynierskiej mechanizmy są rzadko nieskorelowane, więc potrzebne są oszacowania górne i dolne prawdopodobieństwa zniszczenia systemu $p_f$, z których najprostsze podał Cornell (1969) [21] (również Augusti, Baratta (1972) [22] i Barlow , Proschan (1974) [23] i in):
$$ \begin{equation} p_{max}\, (=\max \limits_{i=1} \limits^{n} p_i ) \le p_f \, \le \, \sum \limits_{i=1} \limits^{n} p_i \, (=p_1 + p_2 + … +p_{max} + … \label{49} \end{equation} $$
Bardziej dokładne oszacowania podał Ditlevsen (1979) [24] :
oszacowanie dolne
$$ \begin{equation} p_f \ge p_{max}+\sum \limits_{i=2} \limits^{n} \max \limits_{j<i} \{ \ (\ p_i – \sum \limits_{j=1} \limits^{i-1} p_{ij} ) , \ 0 \} \ge 0\label{50} \end{equation} $$
oszacowanie górne
$$ \begin{equation} p_f \le \sum \limits_{i=1} \limits^{n} p_i – \sum \limits_{i=2} \limits^n \ \max \limits _{j < i}\, p_{ij} \le 1 \label{51} \end{equation} $$
gdzie: $p_{ij}$ jest prawdopodobieństwem jednoczesnego uruchomienia mechanizmu i oraz j.
W celu wyznaczenia $p_{ij}$ należałoby znać dystrybuantę łączną dwuwymiarowego rozkładu marginesów bezpieczeństwa dla zdarzeń $Z_i$ i $Z_j$. Można też posłużyć się kolejnymi oszacowaniami podanymi przez Żukowskiego (2006) [25] :
$$ \begin{equation} p_{ij} \ge \max \{p_i \cdot p_{j|i} , p_j \cdot p_{i|j} \} \text{ , gdy } \rho_{ij}> 0\label{52} \end{equation} $$
$$ \begin{equation} p_{ij} \le p_i \cdot p_{j|i} + p_j \cdot p_{i|j} \text{ , gdy } \rho_{ij} > 0 \label{53} \end{equation} $$
$$ \begin{equation} p_{ij} \le \min \{p_i \cdot p_{j|i} , p_j \cdot p_{i|j} \} \text{ , gdy } \rho_{ij} <0\label{54} \end{equation} $$
gdzie
$ \rho_{ij}$ – współczynnik korelacji zmiennych $Z_i$ oraz $Z_j$- został zdefiniowany w ($\ref{40}$) dla $ (X = Z_i \, ;\, Y=Z_j$
Warunkowe prawdopodobieństwa zniszczenia można oszacować z zależności:
$$ \begin{equation} p_{i|j}=\cfrac{p_j-\rho_{ij}\cdot p_i}{\sqrt{1-\rho_{ij}^2}}\label{55} \end{equation} $$
$$ \begin{equation} p_{j|i}=\cfrac{p_i-\rho_{ij}\cdot p_j}{\sqrt{1-\rho_{ij}^2}}0\label{56} \end{equation} $$
Oszacowania ($\ref{50}$) i ($\ref{51}$) stosuje się w obliczeniach numerycznych. Natomiast w obliczeniach ręcznych pozostajemy przy ($\ref{48}$) i ($\ref{49}$), które w większości przypadków praktycznych dają wystarczające przybliżenie dla wysoko niezawodnych systemów, czyli takich jakie występują w budownictwie, a zawężenie granic ($\ref{50}$) i ($\ref{51}$) stosujemy przy możliwości wiarygodnego oszacowania korelacji mechanizmów zniszczenia i warunkowych prawdopodobieństw awarii ($\ref{55}$) i ($\ref{56}$).
W przypadku posługiwania się wskaźnikiem niezawodności \beta, należy skorzystać z definicji (będącej odwróceniem ($\ref{34}$)):
Po podstawianiu ($\ref{57}$) do zależności ($\ref{48}$) – ($\ref{56}$) uzyskamy stosowne zależności dla inżynierskich miar niezawodności.
Z własności dystrybuanty rozkładu normalnego $\Phi()$ (całki błędu lub Gaussa) wynika, że wraz ze zwiększaniem się wartości bezwzględnej współczynnika niezawodności $|\beta|$ monotonicznie zmniejsza się prawdopodobieństwo awarii $p_f$, czyli można zachować znaki nierówności. Korzystając z własności addytywności operatora dystrybuanty ($\ref(57}$) można na przykład warunkowe wskaźniki niezawodności zapisać w postaci [25] :
$$ \begin{equation} \beta_{i|j}=\cfrac{\beta_j-\rho_{ij}\cdot \beta_i}{\sqrt{1-\rho_{ij}^2}}\label{58} \end{equation} $$
$$ \begin{equation} \beta_{j|i}=\cfrac{\beta_i-\rho_{ij}\cdot \beta_j}{\sqrt{1-\rho_{ij}^2}}\label{59} \end{equation} $$
Elementy stowarzyszone i systemy monotoniczne
Barlow i Proschan (1974) [23] podają kilka ważnych oszacowań dla prawdopodobieństwa zniszczenia $p_f$ systemu złożonego. DO tego celu zdefiniowali zmienne stowarzyszone, czyli takie zmienne losowe $X_1,… X_n$ dla których zachodzi:
$$ \begin{equation} Cov \{ \Theta(X_1,… X_n), \Psi (X_1,… X_n) \}\ \ge 0 \label{60} \end{equation} $$
gdzie $\Theta$ i $\Psi$ funkcje zmiennych losowych $X_1,… X_n$, stanowiących dowolne pary niemalejące ze względu na każdy z argumentów tych funkcji. Cov jest symbolem kowariancji.
z warunku ($\ref{60}$} wynika, że dwie zmienne losowe $X$ i $Y$ są stowarzyszone, jeśli są dodatnio skorelowane, to znaczy zwiększeniu wartości $X$ na ogół towarzyszy zwiększenie wartości $Y$:
$$ \begin{equation} Cov \{ X,Y\} \ \ge 0 \label{61} \end{equation} $$
Rozpatrujemy sytuacje, w których każda ze zmiennych $X_1,… X_n$ jest binarna, tzn przyjmuje wartość [1 = element struktury jest sprawny ; 0=element uszkodzony]. Wówczas do spełnienia warunku ($\ref{61}$) wystarcza, by funkcje $\Theta$ i $\Psi$ były binarne. W przypadku dwóch zmiennych binarnych to kryterium $\ref{61}$) redukuje się do prostego warunku:
$$ \begin{equation}Prob ( X=1\, , \, Y=1) \ge Prob (X=1) \cdot Prob (Y=1) \label{62} \end{equation} $$
Innymi słowy — zdarzenia „X=1” i „Y=1” występują razem częściej niż gdyby zmienne były niezależne”
Systemy spełniające warunek ($\ref{61}$) dla awarii dowolnych dwóch elementów lub ich zbioru (mechanizmu zniszczenia) nazywa się systemami monotonicznymi, to znaczy takimi, w których zwiększenie niezawodności jednego elementu powoduje zwiększenie niezawodności mechanizmu, w którym on uczestniczy, a w wyniku zwiększenie niezawodności całego systemu. To samo dotyczy zmniejszenia niezawodności. Z oszacowań podanych w rozdziale, wynika, że również zwiększanie korelacji pomiędzy elementami zwiększa niezawodność mechanizmu i całego systemu.
Dość oczywiste jest, że w konstrukcjach budowlanych elementy krytyczne (przekroje bądź elementy konstrukcyjne) są stowarzyszone, choć niekoniecznie muszą być losowo niezależne. Przykładem może być rama sprężysto-plastyczna, w której mogą być uruchomione mechanizmy plastyczne na skutek utworzenia się wymaganej liczby przegubów plastycznych, albo sprzężone systemy przekryć obiektów wskutek połączenia stężeniami konstrukcyjnymi.
Rozpatrujemy takie systemy, w których monotoniczne jest bezpieczeństwo i niezawodność.
Oszacowania niezawodności Barlow-Proschan
Oszacowania niezawodności systemu podane przez Barlow i Proschan (1974) są oszacowaniami zależnymi od ilości posiadanych informacji. Ulepszanie oszacowań niezawodności systemu następuje wraz ze zwiększaniem się informacji o zachowaniu poszczególnych elementów systemu i o powiązaniach miedzy elementami.
Pełną informację zawiera łączna funkcja gęstości rozkładu prawdopodobieństwa zmiennych podstawowych s systemu. Takiej informacji na próżno oczekiwać. Najczęściej nie mamy wystarczających informacji statystycznych, by estymować (szacować) parametry rozkładów nawet na bardzo niewielkim poziomie wiarygodności. Posiadane, wiarygodne informacje pozwalają oszacować zwykle tylko kilka parametrów i to niektórych tylko rozkładów brzegowych. O niektóre parametrach wnioskujemy z natury zagadnienia, na przykład z centralnego twierdzenia granicznego oraz natury cech (np. nieujemności fizycznych wielkości, sprawczych wartości ekstremalnych , itd.).
Istnieją trzy typy oszacowań niezawodności zależne od posiadanych informacji o: 1) ścieżkach i cięciach systemu, 2) stowarzyszeniu , niezależności lub dowolnej korelacji elementów. dla poszczególnych sytuacji mamy oszacowania [26] prawdopodobieństwa niezawodności $r$:
A nie są znane ścieżki minimalne i cięcia minimalne
- dla elementów stowarzyszonych
$$ \begin{equation}\underset {i =1} {\stackrel {n} {\sqcap}} \, r_i \le r_s \le \, \underset {i =1} {\stackrel {n} {\sqcup}} \, r_i \label {63} \end{equation} $$
B znane są ścieżki minimalne S (1,…s) i cięcia minimalne C (1,.. c)
- dla elementów dowolnych
$$ \begin{equation}\max \limits _{ 1 \le j \le s} \{Pr( \min \limits _{i \in S_j} (Z_i>0) \} \le r_s \le \min \limits_{ 1 \le j \le c} \{ Pr( \max \limits _{i \in C_j} (Z_i>0) \} \label{64} \end{equation} $$
- dla elementów stowarzyszonych
$$ \begin{equation}\max \limits _{ 1 \le j \le s} \, \underset {{i \in S_j}} {\sqcap} \, r_i \le r_s \le \min \limits_{ 1 \le j \le c} \, \underset {{i \in C_j}} {\sqcup} \, r_i \label{65} \end{equation} $$
W ($\ref{63}$) do ($\ref{65}$) wprowadzono następujące oznaczenie prawdopodobieństwa niezawodności:
$ r= 1-p_f$,
$r_s$ dla systemu,
$r_i$ dla elementu (zdarzenia)
Informacja lub założenie o tym, że elementy struktury systemu są stowarzyszone pozwala istotnie polepszyć oszacowania ($\ref{50}$) lub ($\ref{64}$). To samo dotyczy informacji o minimalnych cięciach lub ścieżkach.
Projektowanie probabilistyczne konstrukcji budowlanych
Projektowanie konstrukcji, a dobór elementów
Projektowanie konstrukcji to w istocie dobór elementów systemu dla z góry zadanej niezawodności $\beta$ lub $p_r$ (lub prawdopodobieństwa awarii $p_f=1-p_s $) całego systemu. Tylko wówczas, gdy system składa się z jednego elementu, to projektujemy ten element do wymaganego poziomu niezawodności.
Zadanie optymalizacji niezawodności systemu nie jest pierwszorzędne, bo w istocie poziom niezawodności zależny od konsekwencji zniszczenia i innych znormalizowanych czynników jest znany: zarówno przekroczenie , jak i zaniżenie tego poziomu ponad lub obiektywnie uzasadniony poziom (ale jak najmniejszy) poziom – nie jest akceptowane. Oba odstępstwa są uważane za równie ważny błąd. Wyłącznie w przypadku systemów równie materiało -energo- chłonnych, czyli równie kosztochłonnych, wybierzemy ten dla którego niezawodność jest największa, ale nie mniejsza od dopuszczalnej.
W projektowaniu konstrukcji o niezawodności $p_s$, złożonej z n elementów (1,2,…i,..n) z których każdy charakteryzowany niezawodnością $p_{s,i}$ w najprostszym przypadku zamiany (wzmocnienia lub zoptymalizowania – zmniejszenia) tylko jednego elementu korzystamy z następujących zasad [26] :
- W systemie o strukturze szeregowej przyrost niezawodności systemu jest proporcjonalny do względnego przyrostu niezawodności elementu i nie jest zależny od tego , który element zostaje zastąpiony elementem o wyższej (ew. niższej) niezawodności,
$$ \begin{equation}\Delta p_s = p_s \cfrac{\Delta p_{si}}{p_{si}}, \quad (i=1,2,…n) \label{66} \end{equation} $$
- W systemie o strukturze równoległej maksymalną zmianę niezawodności systemu uzyskujemy przez zmianę niezawodności elementu, który jest najbardziej niezawodny, przy czym
$$ \begin{equation}\Delta p_s=(1-p_s) \cfrac{\Delta p_{si}}{1-p_{si}}, \quad (i=1,2,…n) \label{67} \end{equation} $$
W tym artykule miary niezawodnościowej istotności elementów zostały wprowadzone dla prostych systemów, dla których analityczny sposób funkcji systemu nie stanowi problemu. Natomiast dla systemów złożonych lub dla przypadków bardziej realistycznych (zależne i naprawialne elementy, realistyczne rozkłady prawdopodobieństwa stosować należy metody numeryczne lub eksperymentalne. Zarówno metody analityczne jak i numeryczne są oparte na zasadzie wyznaczania minimalnych cięć.
Krótki przegląd zagadnień związanych z istotnością elementu we systemie niezawodnościowym podano w pracy [27].
Specyfika szacowania niezawodności konstrukcji budowlanych
W teorii konstrukcji budowlanych stosuje się trzy poziomy obliczeń dla szacowania niezawodności systemów konstrukcyjnych, z czego dwa pierwsze opierają się na aproksymacyjnych metodach probabilistycznych, uwzględniających złożoność konstrukcji z setkami lub tysiącami elementów, które są opisywane przez skorelowane zmienne losowe. Nawet znajomość łącznego rozkładu tych zmiennych wymagałaby przeprowadzenia miliona realizacji w symulacji Monte Carlo, co jest niezbędne dla zapewnienia wysokiej niezawodności budowli, a zastosowanie dokładniejszych metod na poziomie trzecim jest w praktyce bardzo trudne lub wręcz niemożliwe.
W metodach poziomu 1 probabilistyczną naturę niepewności parametrów materiałów i obciążeń uwzględnia się poprzez zastosowanie systemu częściowych współczynników obciążenia i wytrzymałości zgodnie z zaleceniami norm Eurokod projektowania konstrukcji metodą stanów granicznych [2] .
Częściowe współczynniki są kalibrowane w systemie LRFD [28], [29], [30] przez porównanie z wynikami oszacowań uzyskanymi metodami wyższych poziomów, aby zminimalizować różnice między docelową a rzeczywistą niezawodnością konstrukcji.
W metodach 2. poziomu probabilistyczna natura problemu ujęta jest w operowaniu dwiema statystycznymi miarami wartości niepewności parametrów materiałów i obciążeń – najczęściej wartością średnią zmiennej losowej oraz jej wariancją, uzupełnioną o miarę korelacji pomiędzy wymienionymi parametrami. Metody te obejmują pewien szereg przybliżonych, iteracyjnych procedur obliczeniowych, wykonywanych w celu uzyskania informacji o prawdopodobieństwie awarii konstrukcji. Zazwyczaj wymagają one pewnej kontrolowanej idealizacji obszaru reprezentującego awarię, utożsamianego często z uproszczoną reprezentacją układu rozkładów prawdopodobieństwa zmiennych zestawu obciążeń oraz wytrzymałości materiałów [31].
Na rys 14 odwołano się do głównych twórców metody SORM: Breitung (1984) [32], Tvedt (1984) [33], Hohenbichler-Rackwitz(1988) [34], Köylüoǧlu (1994) [35], Cai (1994), [36], Zhao (1999) [37], Mansour (2016) [38], metody SOSPA autorów Hu-Zu (2018) [39], Park-Lee [40]
Rozwinięcie funkcji wektorowej g(X) w szereg Taylora
Formuła aproksymacji
Złożoność obliczeń wartości oczekiwanych, dyspersji kowariancji nieliniowych funkcji zmiennych losowych powoduje, że powszechnie stosuje się aproksymację funkcji nieliniowej przez rozwinięcie w szereg Taylora.[41].Punkt aproksymacji $X^*$, czyli punkt w którym do nieliniowej funkcji aproksymowanej prowadzi się styczną należy dobrać tak, by uzyskać jak najlepsze przybliżenie interesującej wielkości. W przypadku obliczania wartości momentów statystycznych punkt $X^* =\mu_X $, ponieważ wokół tej wielkości zmienne losowa $X$, będzie przyjmowała wartości najczęściej. Natomiast w przypadku szacowania niezawodności punkt aproksymacji to NPP (najbardziej prawdopodobny punkt), który należy wyznaczać iteracyjnie.
Rozważmy zmienną wektorową
$\mathbf{Y}= [ Y_1, \, Y_2, \,\, \cdots , \, Y_j , \, \cdots , \, Y_m]^T_{(1×m)} = [Z_j], (j=1, \cdots m)$,
będącą nieliniową funkcją wektorową $\mathbf {g} (\mathbf{X})$ wektora
$\mathbf{X}= [ X_1, \, X_2, \,\, … , \, X_i , \, … , \, X_n]^T_{(1×n)} = [X_i], (i = 1, \cdots n)$, ($\ref{22}$).
Funkcja $\mathbf{g} = [g_1,\, g_2, \, \cdots, \, g_m]^T_{(1×m)}= [g_j], (j=1, \cdots m)$, jest w ogólności nieliniowa, a w przypadku jednowymiarowym pokazano ją na rys.14. .
Funkcję nieliniową w określonym punkcie NPP o współrzędnych $(X,Y)^*$ można aproksymować prostą funkcją: linią prostą (FORM) , parabolą (SORM) lub krzywą wyższych rzędów.
W zapisie klasycznym funkcję na j-tą współrzędną wektora $\mathbf{Z}$ można zapisać w postaci $Z_j =g_j (\mathbf{X})$, a rozwinięcie tej funkcji wokół punktu $\mathbf{X}^*$ w szereg Taylora w postaci:
$$ \begin{equation}Y_j = g_j (\mathbf{x})\approx g_j (\mathbf{X}^*) + \cfrac{1}{1!}\sum \limits_{i=1}^{n} \cfrac{\partial g_j (\mathbf{X})}{\partial X_i }\bigg|_{ \mathbf{X}= \mathbf{X}^*} \cdot (X_i-X_i^*) + \cfrac{1}{2!} \sum \limits_{i=1}^n \sum \limits_{k=1}^n \cfrac{\partial^2 g_j(\mathbf{X}) }{\partial X_i \partial X_k }\bigg|_{ \mathbf{X}= \mathbf{X}^*} (X_i -X_i^* )\cdot (X_k – X_k^*) +R \label{68} \end{equation} $$
Równanie ($\ref{68}$) jest wielomianem aproksymacyjnym, w którym reszta R zawiera składniki rzędu wyższego niż drugi. Zapis ($\ref{68}$) w postaci jawnej podaje człon stały, liniowy i drugiego rzędu paraboli stycznej do funkcji oryginalnej w punkcie $\mathbf{X}^*$. W zapisie macierzowym rozwinięcie ($\ref{68}$) przy pominięciu reszty R można przedstawić w postaci:
$$ \begin{equation} \mathbf{Y} = \mathbf{g}(\mathbf{X}) \approx \mathbf{g}(\mathbf{X}^*) + \partial \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] + 1/2 \cdot [ \mathbf{X}- \mathbf{X}^*] ^T \partial^2 \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] \label{69} \end{equation} $$
gdzie wprowadzono oznaczenia:
$\mathbf{g}(\mathbf{X}^*)$ stały wektor kolumnowy zawierający wartości funkcji $\mathbf{g}$ w punkcie $\mathbf{X} = \mathbf{X}^*$
$\partial \mathbf{g}(\mathbf{X}^*)$ – macierz wrażliwości pierwszego rzędu, o wymiarze $(m×n)$, w tym samym punkcie.
$\partial^2 \mathbf{g}(\mathbf{X}^*)$ – macierz wrażliwości drugiego rzędu, o wymiarze $ [(m×n)×n]$ .
Macierz $\partial \mathbf{g}$ jest nazywana macierzą Jacobiego $ \mathbf{J}_g$, której elementami są: $[J_g\_{ij}$, (i = 1, \cdots, n), ( j=1\cdots , m) są funkcje $[\partial g_j/ \partial X_i]_{(ij)}$:
$$\begin{equation} \mathbf{J}_g =
\begin{bmatrix} \cfrac{\partial g_1}{\partial X_1} & \cdots & \cfrac{\partial g_1}{\partial X_n} \\
\vdots & \ddots &\vdots \\ \cfrac{\partial g_m}{\partial X_1} & \cdots & \cfrac{\partial g_m}{\partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}
\label{70} \end{equation} $$
Pierwszy wiersz macierzy $\mathbf{J}$ stanowią pochodne pierwszej funkcji $g_1$ po poszczególnych zmiennych $X_1 ,\cdots , X_n$.
Macierz (${70}$) można przedstawić w postaci wektora kolumnowego, którego współrzędnymi są gradienty $ \nabla g_i$ funkcji $g_i$ tworzących wektor $\mathbf{g}$
$$ \begin{equation} \begin{bmatrix} \nabla g_1 \\ \vdots \\ \nabla g_m \end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}\label{71} \end{equation} $$
gdzie:
$$ \begin{equation} \nabla g_i = \begin{bmatrix} \cfrac{\partial g_i}{\partial X_1}, \cdots , \cfrac {\partial g_i}{ \partial X_n} \end{bmatrix} \label{72} \end{equation} $$
Macierz $\partial^2 \mathbf{g}( \mathbf{X}^*)$ jest macierzą wrażliwości drugiego rzędu, ma wymiar $[(n×n)×m]$. Trójwymiarowa macierz jest złożona z pakietu „m” macierzy typu $\mathbf{H}_{g,j} $ ( j=1 \cdots, m), każda o wymiarze ($nxn$) i postaci
$$\begin{equation} \mathbf{H}_{g,i} = \begin{bmatrix}
\cfrac{\partial^2 g_i}{ \partial X_1^2} &\cfrac{ \partial ^2 g_i}{\partial X_1 \partial X_2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_1 \partial X_n} \\
\cfrac{\partial^2 g_i}{ \partial X_2 \partial X_1} &\cfrac{ \partial ^2 g_i}{\partial X_2^2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_2 \partial X_n} \\
\vdots & \vdots & \cdots & \ddots & \vdots \\
\cfrac{\partial^2 g_i}{ \partial X_n \partial X_1} &\cfrac{ \partial ^2 g_i}{\partial X_n^2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_n \partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*} \label{73} \end{equation} $$
Macierze ($\ref{73}$) są nazywane macierząmi Hessego .
Momenty probabilistyczne funkcji zmiennej losowej z linearyzacji
Wyznaczanie momentów probabilistycznych funkcji losowej poprzez linearyzację nie wymaga iteracji w odróżnieniu od szacowania niezawodności konstrukcji.
Momenty probabilistyczne (statystyczne) najlepiej szacować poprzez rozwinięcie funkcji $\mathbf{Y} =g (\mathbf{X})$ podług formuły ($\ref{68}$) wokół wartości oczekiwanych argumentu $ \mathbf{X =\mu_X}$, a nie w otoczeniu punktu NPP, co prowadzi fo foemuły:
$$ \begin{equation} \mathbf{Y} \approx g ( \mu_X ) + \cfrac{\partial g(X) }{\partial X }|_{\mu_X} (X- \mu_X )\label{74}\end{equation} $$
Po zastosowaniu operatora wartości oczekiwanej do funkcji liniowej ($\ref{74}$) otrzymamy następujące formuły linearyzacji probabilistycznej na wartość oczekiwaną i kowariancję wektora $\mathbf{Y}$ [42]:
$$ \begin{equation} \mu_y \approx g ( \mu_x ) \label{75}\end{equation} $$
$$ \begin{equation} \mathbf{C}_y \approx g^{’} ( \mu_x ) \, \mathbf{C}_x \, g ^{’} ( \mu_x )^† \label{76}\end{equation} $$
gdzie $\mathbf{C}_x = Cov \mathbf{X}$, $\mathbf{C}_y = Cov\mathbf{Y}$ są macierzami kowariancji odpowiednio wektora $\mathbf{X}$ i $\mathbf{Y}$.
W przypadku zmiennej skalarnej kowariancja staje się wariancją $ CovX = Var X = \sigma_x^2$.
Dokładność metody linearyzacji zależy od rozproszenia losowego zmiennej wejściowej. Jeśli $ \sigma_x \ll \mu_x$. to dokładność aproksymacji jest dobra i zmniejsza się wraz ze zmniejszaniem się nieliniowości funkcji.
Transformacja dowolnego wektora losowego na wektor o nieskorelowanych współrzędnych
W zadaniach niezawodności konstrukcji, wygodnie operować wektorami losowymi o nieskorelowanych współrzędnych. Zadanie transformacji dowolnego losowego wektora $\mathbf{X}$ na wektor $\mathbf{U}$ o nieskorelowanych współrzędnych, nazywane jest często dekorelacją wektora losowego i sprowadza się do przekształcenia macierzy kowariancji tego wektora do macierzy diagonalnej wektora $\mathbf{U}$, co sprowadza się do transformacji macierzy kowariancji $\mathbf{C}_{xx}$ do macierzy diagonalnej $\mathbf{C}_{uu}$ w przekształceniu:
$$ \begin{equation} \mathbf{C}_{xx} = \mathbf{A} \, \mathbf{C}_{uu}\, \mathbf{A}^† \label{77}\end{equation} $$
Odpowiada to liniowemu przekształceniu
$$ \begin{equation} \mathbf{X} = \mathbf{A} \mathbf{U} + \mu_{\mathbf{X}} \label{78}\end{equation} $$
z macierzą przekształcenia $\mathbf{A}$. Takie przekształcenie nazywa się kanonicznym rozkładem wektora losowego.
Rozkład kanoniczny wektora losowego można dokonać nieskończenie wieloma sposobami, z których w praktyce stosowane są:
- poszukiwanie wartości własnych macierzy kowariancji – w tym przypadku macierz przekształcenia jest złożona z wektorów własnych tej macierzy. Ten sposób stosuje się chętnie, ponieważ pakiety standardowych procedur numerycznych zawierają procedury rozwiązywania problemu wartości własnych.
- inne rozkłady bez wymogu standaryzacji przekształcenia, które co prawda nie są standardowe, lecz prowadzą do istotnie mniej kosztownych algorytmów.
W niezawodności konstrukcji dekorelację wektora zmiennych stanu $\mathbf{X}$ prowadzi się poprzez : transformację Rosenblatta (1952) [43]), Hohenbichlera-Rackwitza (1981) [44]); Natafa(1962) [45]); Liu-Der Kiureghiana(1986) [46], lub transformacją analityczną Lu i in. (2020) [47]
W tym artykule przedstawimy metodę dekorelacji wektora $\mathbf{X}$ znaną z podręczników statystyki matematycznej (np. (Pugachev (1984) [42] ) stosujmy prostą metodę obrotów, która jest iteracyjną metodą kanonicznego rozkładu wektora losowego. Metoda obrotów daje istotne oszczędności kosztów obliczeń. Koszt obliczeń jest dziesiątki, a w niektórych przypadkach setki razy mniejszy od rozwiązywania zagadnienia własnego.
Macierz kowariancji $\mathbf{C}_{uu}= diag [k_i ]_{(n×n)}$ wektora $\mathbf{U}$ oraz macierz przekształcenia $\mathbf{A} = [a_{ij} ]_{(n×n)}$ wyznacza się w algorytmie iteracyjnym [42]:
$$ \begin{equation} d_k = c_{kk} – \sum \limits _{i=1}^{i=k-1} d_i | a_{ik}|^2 , \quad (k=1,\cdots , n) \label{79}\end{equation} $$
$$ \begin{equation} a_{kj} =\begin {cases}
0 ,& \text {dla } (j=1, \cdots , k-1) \\
1 ,& \text {dla } (j=k) \\
\cfrac{1}{d_k} \left ( c_{jk} – \sum \limits _{i=1}^{i=k-1} d_j \cdot a_{ij} \cdot \overline a_{ik} \right), & \text {dla } (j=k+1, \cdots, n) \\
\end {cases} \label{80} \end{equation} $$
Dla k=1 należy przyjąć: $d_1 = c_{11}$, $a_{1j} =\cfrac{c_{j1}}{d_1}$.
Jeśli $d_k=0$, to przyjmujemy $a_{kj}= 0, \quad (j=1, \cdots, n)$
Niżej podano przykład rachunkowy.
Normalizacja – transformacja dowolnego rozkładu do normalnego
Jeśli zmienne są niekorelowane w dowolnym rozkładzie, to będą również nieskorelowane w rozkładzie normalnym, a. dodatkowo w rozkładzie normalnym zmienne będą niezależne, co bardzo upraszcza szacowanie niezawodności systemu konstrukcyjnego. Dlatego w praktycznych algorytmach szacowania niezawodnośći, w tym FORM i SORM rozkład wektora stany $\mathbf(X)$ sprowadza się do rozkładu normalnego.
Transformacja wektora losowego o dowolnym rozkładzie prawdopodobieństwa na rozkład normalny można dokonać na wiele sposobów, z których każdy daje przybliżenie rozkładu oryginalnego o różnej dobroci dopasowania. Najczęściej stosowane metody zestawiono w tab. 10.
Metody probabilistyczne drugiego poziomu
Metody probabilistyczne drugiego poziomu posługują się aproksymacją powierzchni granicznej $g(\mathbf{X})$ ($\ref{21}$) w szereg Taylora w otoczeniu punktu NPP (rys. 1), zwanego też punktem obliczeniowym $\mathbf{x}^*$ , który w zapisie macierzowym można przedstawić w postaci($\ref{69}$) . W zależności od liczby zachowanych wyrazów rozwinięcia ($\ref{18}$) następuje dalsza klasyfikacja metod drugiego poziomu na rzędu:
- rząd 1-szy w metodzie FORM – zachowany jest tylko liniowy człon (z wrażliwościami pierwszego rzędu$\nabla$ . Metoda jest często nazywana linearyzacją powierzchni granicznej,
- rząd 2-gi w metodzie SORM – zachowany jest człon drugiego rzędu (z wrażliwościami drugiego rzędu $\nabla^2$. Metoda jest często nazywana parabolizacją powierzchni granicznej.
Procedury obliczeniowe metody FORM i SORM są szczegółowo opisana w pracach Ditlevsena (1981) [48], Anga i Tanga (1984)[49], Rackwitz’a (1976) [50], Madsen’a i in. (1986) [51], Melchers (1987) [52], Dai i Wanga (1992) [53]oraz Tichy’ego (1993) [54], Na rys. 12 za pracą [55]) przedstawiono schemat blokowy obliczeń obiema metodami.
Rys. 12 Schemat blokowy metody FORM i SORM [55])
Poniżej podano krótkie wprowadzenie do metody FORM, umożliwiające przedstawienie kilku przykładów jej zastosowania.
Metoda niezawodności pierwszego rzędu (FORM)
Najprostszą metodą zaliczaną do metod probabilistycznych 2. poziomu jest metoda niezawodności pierwszego rzędu FORM, której nazwa jest skrótem od First Order Reliabilty Method, w której w konsekwencji linearyzaji powierzchni granicznej, do analizy wystarczy znajomość tylko dwóch pierwszych momentów statystycznych wektora stanu $\mathbf{X}$: wartości oczekiwanych $\mu_{\mathbf{X}}$ oraz wariancji lub odchylenia standardowego $\sigma_{\mathbf{X}}$.
Podstawowym problemem metody FORM jest znalezienie punktu NPP (Najbardziej prawdopodobnego Punktu) na powierzchni granicznej $ \mathbf {x}^*$, wokoł którego następuje rozwinięcia szeregu Taylora ($\ref{18}$). W punkcie tym następuje maksymalizacja gęstości prawdopodobieństwa powierzchni stanu granicznego, co prowadzi do najdokładniejszego przybliżenia prawdopodobieństwa zniszczenia.
Punkt NPP $\mathbf{x}^*$ jest znajdowany w procedurze iteracyjnej, którą przedstawili Hasofer i Lind (1974) [13]. Macierzowe sformułowanie procedury wyznaczenie punktu projektowego NPP podano w pracy Ditlevesena (1981) [48], cytującego Veneziano (1974) [56]w postaci:
$$ \begin{equation} \beta = \min \limits_{\mathbf{X} \in \Omega_f} \sqrt{ [ \mathbf{x}^* – \mu_{ \mathbf{X}} ]^T \mathbf{C}^{-1} [ \mathbf{x}^* – \mu_{ \mathbf{X}}] } \label{81} \end{equation} $$
gdzie:
$\mathbf{X}$ wektor reprezentujący zbiór zmiennych losowych stanu;
$\mathbf{x}*$ wektor wartości zmiennych losowych stanu w punkcie NPP (rys.1)
$\mu_{ \mathbf{X}} $ – ich wartości oczekiwane (średnie ) wektora $\mathbf{X}$;
$\mathbf{C}$ – macierz kowariancji;
$\Omega_f$ – obszar awarii (stanów niedopuszczalnych, zniszczenie)
Formuła ($\ref{19}$ pokazuje, że w celu ustalenia współrzędnych punktu projektowego NPP należy przeprowadzić optymalizację matematyczną formy kwadratowej
$[ \mathbf{x}^* – \mu_{ \mathbf{X}} ]^T \mathbf{C}^{-1} [ \mathbf{x}^* – \mu_{ \mathbf{X}}]$.
Wynikiem optymalizacji jest liczba $\beta^2$ , a jej pierwiastek jest właśnie współczynnikiem niezawodności $\beta$. W jednej procedurze optymalizacyjnej znajdowany jest punt projektowy oraz współczynnik niezawodności $\beta$
Można wykazać, że w przypadku, gdyby zmienne $\mathbf{X}$ były normalne i standaryzowane, to współczynnik $\beta$ ($\ref{19}$ byłby minimalną odległością między punktem wartości oczekiwanej funkcji gęstości prawdopodobieństwa ( początkiem układu współrzędnych), a powierzchnią stanu granicznego,.
Wobec tego przed procedurą optymalizacji ($\ref{19}$) przeprowadza się przekształcenie zmiennych pierwotnych $\mathbf{X}$ do tzw. U-space przestrzeni standandaryzownych i nieskorelowanych zmiennych normalnych $\mathbf {U}$.
Po przeprowadzeniu transformacji do U-space punkt NPP równanie powierzchni granicznej ($\ref{21}$) przyjmuje postać
$$ \begin{equation} g_u (\mathbf{U}) = 0\label{82} \end{equation} $$
a warunek ($\ref{19}$) redukuje się do
$$ \begin{equation} \beta = \min \sqrt{ [ \mathbf{u}^T \mathbf{u}}\\
\leftarrow g_u( \mathbf{u}=0 \label{83} \end{equation} $$
z którego uzyskuje się punkt NPP $\mathbf{u}^*$, którego odległość od początku układu współrzędnych do powierzchni stanu granicznego jest najmniejsza.
W przypadku liniowej (zlinearyzowanej) powierzchni granicznej z podstawowej własności U-space czyli addytywności rozkładu normalnego wynika, że w sposób ścisły również liniowa funkcja stanu granicznego ma rozkład normalny. Dla powierzchni granicznej zapisanej w formie marginesu bezpieczeństwa
$$ \begin{equation} M = R- E \label{84} \end{equation} $$
gdzie :
R – losowa wytrzymałość o rozkładzie $ \mathcal N ( \mu_R,\sigma_R)$, E – losowe obciążenie,$ \mathcal N ( \mu_E ,\sigma_E) $,
to
$$ \begin{equation} \mathcal N ( \mu_M, \, \sigma_M) = \mathcal N (\mu_R – \mu_E , \, \sqrt{\sigma_R^2 +\sigma_E^2}) \label{85} \end{equation} $$
Praktyczną procedurę analizy niezawodności dla skorelowanych rozkładów nienormalnych z zastosowaniem powszechnie dostępnych arkuszy obliczeniowych, np Microsoft Excel opisali Low-Tang (1997) [57]). Algorytm możliwy do zaimplementowania w arkuszu kalkulacyjnym wykorzystuje obiektową optymalizację z ograniczeniami. Do wyznaczenia pochodnych numerycznych i iteracyjnego wyszukiwanie punktu projektowego wykorzystuje się standardowe funkcje arkusza.
Narzędzie optymalizacyjne znajduje się w arkuszu Microsoft Excel z dodatkiem Solver ( też: Lotus 123 i Quattro Pro). Dodatek Solver umożliwia optymalizację różnymi metodami, w tym: 1) nieliniową GEG (uogólniony zredukowany gradient) stosowaną w przypadkach, gdy relacje między zmiennymi a komórką celu są „gładkie” (ciągłe i różniczkowalne), 2) prosty algorytm sympleksu (LP simpleks), przeznaczony do liniowych problemów (funkcja celu i wszystkie ograniczenia muszą być liniowymi wyrażeniami), 3) metoda ewolucyjna, dla problemów o charakterze niegładkim, czyli takich, w których relacje między zmiennymi a komórką celu nie są gładkie.
Do optymalizacji problemu $(\ref{82}$) dla przestrzeni zmiennych normalnych, przy zlinearyzowanej powierzchni granicznej, czyli w metodzie FORM wystarcza metoda LP simpleks. Natomiast w metodzie SORM stosuje się najczęściej metodę CEG, a w trudnych przypadkach metodę ewolucyjną.
Metoda niezawodności drugiego rzędu (SORM)
Metoda SORM została wyczerpująco omówiona w pracy Hu i in.(2021) [55]). W pracy wykazano, że:
- metody SORM są generalnie bardziej wydajne niż symulacje MC,
- zastosowanie metody SORM jest ograniczone do niewielkiej liczby zmiennych losowych (do ok kilkudziesięciu),
- w przypadku bardzo dużej liczby zmiennych losowych, tj. tysięcy: (1) nakład obliczeniowy związany z obliczaniem gradientów różnic skończonych podczas poszukiwania MPP rośnie liniowo wraz z liczbą zmiennych losowych; (2) konieczna jest duża liczba iteracji w celu uzyskania zbieżności do MPP; (3) zbieżność do rozwiązania globalnego przy użyciu konwencjonalnych algorytmów optymalizacji MPP staje się coraz mniej prawdopodobna wraz ze wzrostem wymiaru, ze względu na potencjalną obecność lokalnych minimów.
W niniejszym artykule nie przedstawiamy szczegółów metody SORM, bowiem w większości praktycznych problemów inżynierskich wystarczająca jest metoda FORM.
Metoda uogólnionej korelacji
W pracy Kudzys (1985) [58] przedstawiono praktyczny, uproszczony sposób szacowania niezawodności systemu niezawodnościowego złożonego ze skorelowanych elementów. Wprowadzono pojęcie uogólnionego współczynnika korelacji, to znaczy takiego zastępczego (integralnego) współczynnika korelacji, który jeden ujmuje efekt wielu wzajemnych współczynników korelacji elementów. Uogólniony współczynnik korelacji $\rho_g$ można zapisać w postaci:
$$ \begin{equation}\rho_g = \cfrac {\Delta P} {\Delta P_{max}} \label{86} \end{equation} $$
gdzie:
$\Delta P$ – poprawka oszacowania niezawodności, uwzględniająca błąd obliczeń, wskutek nie uwzględnienia korelacji (lub stochastycznej zależności) elementów,
$\Delta P_{max} $ – maksymalna wartość poprawki oszacowania niezawodności.
Niezawodność systemu złożonego z $r = n \cdot m$ elementów można obliczyć jak dla szeregowo połączonych wszystkich elementów z zależności ($\ref{37}$) , ale z poprawką $\Delta P$:
$$ \begin{equation} p_s= \prod \limits_{i=1}^r p_{s,i} +\Delta P \label{87} \end{equation} $$
n – liczba elementów połączonych szeregowo,
m- liczba bloków po n-elementów połączonych równolegle,
$r=ncdot m$ – całkowita liczba elementów
$p_{s,i}$ – niezawodność elementu i-tego $(i = 1,.., r)$.
Maksymalny błąd obliczeń niezawodności systemu, w którym wytrzymałość i obciążenia są nieskorelowane, można oszacować z zależności [59]:
$$ \begin{equation} \Delta P_{max} = \min \limits_{i=1}^ r p_{s,i} – \sum \limits_{i=1}^ r (1 – p_{s,i}) ] \label{88} \end{equation} $$
dzie
$ \min \limits_{i=1}^ r p_{s,i}$ – minimalna niezawodność elementu spośród r elementów systemu.
Z ($\ref {88}$) otrzymujemy oszacowanie niezawodności systemu $p_s$ [60] :
$$ \begin{equation} \prod \limits_{i=1}^r p_{s,i} \le p_s \le \prod \limits_{i=1}^r p_{s,i} + \min \limits_i p_{s,i} – [ 1- \sum\limits_{i=1}^r (1 – p_{s,i})]\label{89} \end{equation} $$
Z oszacowania ($\ref{89}$) wynika, że uogólniony współczynnik korelacji ($\ref{86}$) można wyznaczyć z formuły:
$$ \begin{equation} \rho_g =\cfrac {\Delta P} { \min\limits_i p_{s,i} – [1-\sum\limits_{i=1}^r (1-p_{s,i})]}\label{90} \end{equation} $$
przy czym można zastosować przybliżenie, wynikające z odwrócenia ($\ref {40}$):
$$ \begin{equation} \rho _g \approx \cfrac {1} { 1 – \sum \limits_{i=1}^r (1-p_{si})} \approx \prod \limits_{i=1}^r p_{s,i} \label{91} \end{equation} $$
Po podstawieniu $\Delta P$ uzyskanego z ($\ref{90}$) do ($\ref{87}$), uzyskujemy podstawowe wyrażenie metody uogólnionej korelacji, do oszacowania niezawodności systemu złożonego z dowolnych elementów powiązanych w strukturę mieszaną:
$$ \begin{equation} p_s \approx \rho_g \cdot \min\limits_i p_{s,i} + (1-\rho_g )\left [1- \prod\limits_{i=1}^r (1-p_{s,i})\right ] \label {92} \end{equation} $$
Podstawowym problemem metody uogólnionej korelacji jest wyznaczenie współczynnika $\rho_g $ ($\ref{86}$). Dla normalnie rozłożonych funkcji granicznych $g_i()$, miarodajną wartość uogólnionego współczynnika korelacji sytemu można wyznaczyć z formuły [60] :
$$ \begin{equation} \rho_g \approx \ \overline {\rho}_g \left \{ 2 – \left [ \overline\rho_g + \cfrac {(1-\overline \rho_g) \cdot (3-log \, n)} {1-0,1 {\rho^2}_m \cdot (3 – log\, n)^2 } \right] \right \} \label{93}\end{equation} $$
gdzie:
$$ \begin{equation} \overline {\rho}_g= \cfrac {2}{n \cdot (n-1)} \sum\limits_{i<j} \rho_{i,j} \label{94} \end{equation} $$
jest średnią wartością współczynników korelacji wzajemnej $\rho_{i,j}$ elementu (i) z (j), uzyskaną przez uśrednianie po wszystkich r – elementach systemu, w ogólności skorelowanych, czyli statystycznie lub funkcjonalnie zależnych.
Do liczby elementów $r$ wliczany jest każdy blok (podsystem), który jest rozpatrywany jako samoistny element systemu włączając w to elementy połączeń oraz stężenia konstrukcji.
W pracy [58] sprawdzono dokładność formuły $(\ref{93})$ przez porównanie z wynikami dokładnymi uzyskanymi przez calkowanie gęstości prawdopodobieństwa i stwierdzono, że dokłądność metody uogółnionej koralacji jest zadawalająca, dla iczba zdarzeń (elementów konstrukcji) $(r< 500)$ .
Metoda powierzchni odpowiedzi (RSM)
Początki metody powierzchni odpowiedzi (od ang Response Surface Model) sięgają lat 50-tych, gdy BOX i Wilson [61] opracowli metodę \do planowania eksperymentów w chemii i przemyśle Jej pierwotnym celem było budowanie przybliżonych modeli funkcyjnych na podstawie danych eksperymentalnych, aby zminimalizować liczbę kosztownych testów laboratoryjnych. W latach 70. i 80. RSM zaczęto stosować do: optymalizacji procesów produkcyjnych, zagadnień mechaniki i materiałoznawstwa, problemów numerycznych, gdzie funkcja odpowiedzi jest wynikiem symulacji komputerowych.
Od lat 90. metoda stała się popularna w analizie niezawodności konstrukcji, ponieważ: pełna analiza probabilistyczna (np. metoda Monte Carlo) jest kosztowna, analizy numeryczne (głównie MES,) są iteracyjne i czasochłonne, RSM pozwala stworzyć tańszy model zastępczy („metamodel”). Metoda była rozwijana przez: Bakera, Harr’a, i Rosenblueth’a: [62], [63], [64], [65] [66], [67], [68].
Dziś RSM jest standardem w: ocenie ryzyka uszkodzenia konstrukcji, analizach wrażliwości, probabilistycznej kalibracji norm projektowych. Metoda RSM zastąpiłą inne metody szcowania niezawodnosći, bowiem: modele konstrukcji (np. MES ) są złożone a ich analiza jest kosztowna, a obliczenia probabilistyczne wymagają dziesiątki tysięcy rozwiązań. RSM redukuje koszty obliczeń nawet 100–1000 razy.
Typowe obszarami zastosowań jest: ocena bezpieczeństwa konstrukcji stalowych i żelbetowych, ocena trwałości elementów betonowych (karbonatyzacja, korozja), niezawodność geotechniczna (nośność fundamentów, stateczność skarp), analiza efektów sejsmicznych, analiza zmęczeniowa w mostach i wieżach. Ograniczeniami w stosowaniu metody są: utrata dokładności przy silnie nieliniowym zachowaniu, niejasne kryteria wyboru wyboru punktów próbkowania, zła jakość metamodelu,.
Metoda powierzchni odpowiedzi: 1) umożliwia skuteczną, szybką i tanią analizę niezawodności konstrukcji, 2) często łączy się z FORM, SORM i Monte Carlo, 3) jest obecnie standardem w ocenie bezpieczeństwa konstrukcji budowlanych, gdzie pełna analiza probabilistyczna byłaby zbyt kosztowna.
Powierzchnia odpowiedzi jest modelem zastępczym funkcji stanu granicznego g(X) =0 ($\ref{22}$). Zamiast wykonywać dużą liczbę kosztownych analiz numerycznych konstrukcji, buduje się prostą aproksymację zwaną powierzchnią odpowiedzi, zwykle postaci modelu liniowego, parabolicznego lub wielomianowego wyższego rzędu, albo też modelu kriging (RSM II), lub metod opartych na maszynowym uczeniu
Aproksymację powierzchni odpowiedzi zapiszmy w postaci
$$ \begin{equation} g(\mathbf{X} \approx \hat{g} (\mathbf{X}) \label {95} \end{equation} $$
i ta przybliżona wersja jest następnie używana w obliczeniach probabilistycznych.
W pierwszym kroku aproksymacji powierzchni ogranicza się liczbą losowych zmiennych stanu do zmiennych istotnych (mp.t ylko: wytrzymałość betonu, grubość elementu, moduł sprężystości, charakterystyka obciążenia wiatrem/śniegiem.). W drugim kroku projektuje się przebieg eksperymentu ( najczęściej numerycznego). Następnie przeprowadza się analizy numeryczne. W wybranych punktach wyznacza się rzeczywistą wartość na powierzchni $g(\mayhbf{X}) (np za pomocą MES, analizy plastyczności, symulacji dynamicznej).
Na podstawie znajomości wybranych punktów na powierzchni granicznej konstruuje się powierzchnię odpowiedzi w założonej postaci funkcyjnej (najczęściej powierzchni drugiego stopnia . Dopasowanie założonej powierzchni do znanych punktów prowadzi się metodą e=regresji nieliniowej, RSM opartym na krigingu, lub z wykorzystaniem sieci neuronowych(tzw meta-modelling).
W ostatnim kroku oblicza się niezawodność konstrukcji $p_f$ ($\beta$), stoisując metody FORM, SORM lub szybką symulację Monte Carlo.
Metoda symulacji Monte Carlo (MMC)
Wprowadzenie
Metoda Monte Carlo, to intuicyjna, odznaczająca się dużą prostotą, uniwersalna metoda, za pomocą której można rozwiązać złożone, dowolnie nieliniowe, uwikłane i sprzężone zagadnienia techniki, w tym konstrukcji budowlanych [69]. Szybka metoda Monte Carlo realizuje postulat zmniejszenia kosztowności metody, mierzonej liczbą potrzebnych cykli obliczeniowych. SMCC z powodzeniem zastępują klasyczne metody szacowania współczynnika niezawodności konstrukcji budowlanych (SORM /FORM) i coraz częściej są realizowane w połączeniu z metodą genetyczną i warstwowania zgodnie z ideą hiperkostek łacińskich, a także szeregami Neumanna.
Metoda Monte Carlo (MCC) służy do rozwiązywania przede wszystkim zadań losowych, ale również zadań nielosowych, jak np: złożonych całek, równań różniczkowych, równań nieliniowych, wyznaczenie ekstremum funkcji [70], [71].
Metodę MCC można stosować do wszystkich tych zagadnień, w których zawodzą metody analityczne. Można do nich zaliczyć: niezawodność systemów o złożonym układzie elementów, analizę systemów o zależnych czasach pracy i awarii urządzeń i inne [72].
Pierwsze szerokie zastosowanie metody MCC w roku 1944 przez von Neumanna umożliwiło zrozumieć fundamentalną ideę reakcji łańcuchowej, co pozwoliło domknąć prace nad bombą atomową. MMC jest obecnie jedyną metodą pozwalającą na na obliczenie charakterystyk reakcji jądrowych przy dostatecznie, zbieżnych z realnymi warunkami, ogólnych założeniach fizycznych.
Poprawność metody MCC w przypadku obliczania pól lub całek można udowodnić stosując twierdzenie Picka , skąd wynika , że metoda jest słuszna dla dowolnego kształtu pola lub granic całki.
W każdym przypadku, istotą metody MCC jest losowanie, rozumiane jako przypadkowy wybór, wartości zmiennych występujących w zagadnieniu. Losowanie jest dokonywane zgodnie z rozkładem statystycznym, który musi być znany. Stosowanie metody MC jest nierozłącznie związane z rozwojem metod numerycznych oraz programami komputerowymi.
Przykładem programów do oceny niezawodności konstrukcji budowlanych z zastosowaniem prostej MCC jest zestaw programów symulacyjnych , opisany w [69], a obejmujący kilka programów:
Dokładność wyniku uzyskanego w metodzie MC jest zależna przede wszystkim od liczby losowań (sprawdzeń) oraz jakości użytego generatora liczb pseudolosowych. Dokładność metody zwykle zwiększa się wraz ze wzrostem liczby prób. Niesamowity i nieustanny wzrost mocy obliczeniowej komputerów oraz wprowadzanie nowych technologii do algorytmów numerycznych wskazuje na to, że nieunikniony jest powrót do stosowania metody MC i zmniejszenie znaczenia metod linearyzacji stosowanych wraz z metodami perturbacji zagadnień. Poprawa jakości generatorów liczb losowych jest ważna, bowiem generator liczb pseudolosowych ma skończenie wiele liczb losowych w cyklu i zwiększanie liczby prób ponad liczbę losowań w cyklu nie zawsze zwiększa dokładność wyniku.
Zamiast rozwijania metod aproksymacyjnych należy skupić się nad poprawą jakości generatorów liczb pseudolosowych oraz doskonalenia metody Monte Carlo w kierunku rozwijania Szybkich Metod Monte Carlo , których klasycznym przykładem jest symulacja według funkcji ważności, próbkowanie adaptacyjnego, warstwowanie mechanizmem hipersześcianów łacińskich, stosowanie: zmiennej kontrolnej, średniej ważonej, obniżania krotności całki, klasycznego losowania warstwowego [70] i in.. Współcześnie rolę taką przejmują metody genetyczne (sieci neuronowe).
Ze względu na dynamiczny rozwój technik informatycznych i technologii komputerowych – autor niniejszego artykułu przewiduje, że w szybkim czasie szybka metoda Monte Carlo zastąpi stosowane obecnie, aproksymacyjne, probabilistyczne metody. a w tym zaawansowaną metodę drugiego momentu (Advanced Second Moment ASM) [73] która umożliwia wyznaczenie współczynnika niezawodności konstrukcji Hasofera-Linda z zachowaniem postulatu niezmienniczości [74].
Stosowane współcześnie konstrukcje zmierzają do optymalności z warunku zużycia materiału, co powoduje że, stosuje się coraz powszechniej konstrukcje bliskie osobliwym, które są z reguły układami wysoce nieliniowymi zarówno geometrycznie jak i materiałowo, a także wrażliwych na utratę stateczności. To właśnie takie konstrukcje optymalne są szczególnie narażone na imperfekcje parametrów i ich analiza deterministyczna traci sens. W ich przypadku niestety zawodzą równiż klasyczne metody probabilistyczne. Stąd wielka waga i renesans metod Monte Carlo, stosowanych zamiennie lub łącznie z klasycznymi metodami analizy niezawodności konstrukcji (FORM/SORM) Dlatego tak ważne jest udoskonalenie metody symulacji Monte Carlo poprzez wykorzystanie koncepcji tzw. optymalnej hiperkostki łacińskiej (ang. optimal Latin Hypercube – OLH) lub metody genetyczne.
Koszt obliczeń MCC
Ze względu na wielowymiarowość i uwikłanie zagadnień praktycznych, objawiający się na przykład: szybkim wzrostem rozmiaru zadania wraz ze zwiększaniem się liczby elementów, rozkład momentów funkcji niezawodności innym niż normalny czy potęgowy, często silnymi nieliniowościami – analizę niezawodnościową DSK (Dużego Systemu Konstrukcyjnego) można efektywnie prowadzić wyłącznie metodą Monte-Carlo [75]. W przypadku DSK inne metody w tym aproksymacyjne szeregami Taylora zawodzą, przede wszystkim ze względu na błędy pasożytnicze (maszynowe, procesora komputera), objawiające się szybkim zmniejszaniem dokładności rozwiązania wraz ze zwiększaniem rozmiaru zadania.
Przy założeniu niezależności poszczególnych symulowanych realizacji ocena (estymator) prawdopodobieństwa awarii DSK Pf w analizowanym okresie wynosi po prostu:
$$ \begin{equation} P_f = \cfrac{n_f}{N}\label {96} \end{equation} $$
gdzie nf – jest liczbą realizacji spośród wszystkich N dla których system „wyskoczył” z obszaru dopuszczalnego w dowolnym miejscu (elemencie) i dla dowolnego kryterium jakości.
W celu otrzymania oszacowania Pf ze względnym błędem średniokwadratowym $\delta=\cfrac{\sigma_{p_f}}{p_f}$ należy przeprowadzić nie mniej realizacji niż wynika to z formuły:
$$\begin{equation} N = \cfrac{1-P_f}{P_f \cdot \delta^2}\label {97} \end{equation} $$
Przykładowo dla Pf= 10-4 (wymaganego dla konstrukcji budowlanych prawdopodobieństwa zniszczenia i dla błędu oszacowania 10% mamy N=106. W praktyce przeprowadzenie tak dużej liczby symulacji byłoby bardzo kosztowne i długotrwałe. Dlatego w analizie BSK ważne są szybkie metody MCC, pozwalające zmniejszyć wymaganą liczbę symulacji nawet o kilka rzędów.
Szybka Metoda Monte Carlo (SMMC)
Szybka metoda Monte Carlo jest odmianą prostej, ogólnej metody MCC, polegającą na zwiększeniu efektywności (szybkości) metody podstawowej, poprzez wykorzystanie dodatkowych informacji o równaniu systemu (powierzchni granicznej) oraz o mierze, względem której wykonuje się operację (najczęściej całkowanie funkcji prawdopodobieństwa).
Algorytmy redukcji wariancji, czyli procedury pozwalające na zwiększenie precyzji estymacji, polegają na odpowiednim doborze próby (ang. sampling), tak aby zmienność wyników symulacji była jak najmniejsza. Rezultat taki można osiągnąć przez zwiększenie liczebności próby, ale często zamiast zwiększania liczebności losowań, wystarczający efekt można uzyskać korzystając z metod redukcji wariancji [76].
W klasycznej pracy [70] wskazano na kilka metod zwiększenia efektywności klasycznej metody MC poprzez zastosowanie metod:
1) metody zmiennej kontrolnej
2) metody średniej ważonej
3) metody losowania warstwowego
4) obniżenie krotności całki
5) stosowanie stochastycznych formuł kwadraturowych
Stocki (2010) w rozprawie habilitacyjnej [77] wskazuje, że w problemach niezawodności konstrukcji budowlanych metoda Monte Carlo jest interesującą alternatywą do standardowych metod poszukiwania punktu projektowego na powierzchni granicznej.
Omawia kilka metod pozwalających na znaczną redukcję wariancji estymatora prawdopodobieństwa awarii, co pozwala znacznie ograniczyć liczbę losowań w celu uzyskania akceptowanej dokładności obliczenia całki prawdopodobieństwa dla bardzo niezawodnych obiektów, jakimi są konstrukcje budowlane.
Metoda funkcji ważności (importance sampling)
Najważniejszą metodą redukcji wariancji MCC jest metoda funkcji ważności (ang importance sampling). która jest stosowana w wielu odmianach w zależności of konkretnego problemu [78]. Metoda ta jest w istocie klasyczną metodą zmiennej kontrolnej w ujęciu ilorazu, a nie różnicy funkcji gęstości oryginalnej f(x) i tzw losującej g(x). Można pokazać, że odpowiedni wybór gęstości losującej decyduje o efektywności metody. Jeśli g będzie proporcjonalna do f w obszarze całkowania (awarii) , to wariancja redukuje się do zera i wystarczyłoby jedno losowanie, by uzyskać wynik dokładny. Nie jest to jednak proste i ściśle możliwe w praktycznych sytuacjach.
Liczne doświadczenia w stosowaniu metody funkcji ważności w odmianie ach uproszczonych pozwalają stwierdzić, że zwykle zadowalającą estymację można otrzymać już po wygenerowaniu od kilkuset do kilku tysięcy realizacji zmiennych. Jest to o wiele rzędów wielkości mniej niż w przypadku klasycznego Monte Carlo. Wystarczy jako gęstość losującą wybarać rozkład normalny. Wówczas oszacowanie wartości prawdopodobieństwa awarii nie jest bardzo wrażliwe na kształt obszaru awarii,a prawdopodobieństwo, że realizacja zmiennej losowej wygenerowanej zgodnie z gęstością losującą znajdzie się w obszarze awarii wynosi około 50%. Kontrastuje to z klasyczną metodą Monte Carlo gdzie prawdopodobieństwo “trafienia” realizacji w obszar awarii było mniej więcej równe obliczanemu prawdopodobieństwu awarii [77].
Metody adaptacyjne
Ponieważ stosowanie standardowej metody funkcji ważności w szeregu przypadkach może być zawodne, bo:
* w konkretnym zagadnieniu gęstość losująca może być źle dobrana,
* powierzchnia graniczna może posiadać wiele punktów projektowych (minimów lokalnych), na przykład w przypadku rozważania kilku funkcji granicznych (mechanizmów zniszczenia)
* powierzchnie graniczne mogą mieć znaczne ujemne krzywizny,
więc stosuje się metodę adaptacyjną doboru gęstości losującej. Dobór funkcji gęstości losującej rozpoczyna się od założenia prostej funkcji gęstości, najczęściej gaussowskiej, z wartościami oczekiwanymi i wariancjami określonymi na podstawie próby o niewielkiej liczebności. Poprzez generowanie kolejnych realizacji zmiennych losowych funkcja losująca jest ciągle udoskonalana, gdyż parametry rozkładu estymuje się na podstawie coraz liczniejszej próbki. Przyjmuje się, że gęstość losująca o tak uaktualnianym położeniu oraz kształcie zbiega ostatecznie do gęstości idealnej.
Niestety, zbieżności tej nie można zagwarantować, szczególnie w przypadku złego początkowego wyboru gęstości losującej. Dlatego często stosowane są modyfikacje tej metody, polegające na tym, że funkcja gęstości losującej jest składana ze kilku funkcji gęstości z zadanymi wagami. podlegającym odrębnym optymalizacjom (adaptacjom) lub aproksymacja oryginalnej powierzchni odpowiedzi przez powierzchnie prostsze dla których można zastosować efektywne, numeryczne algorytmy optymalizacji.
W większości zagadnień praktycznych efektywne będą metody mieszane (hybrydowe), polegające na tym, że w trakcie symulacji losowych są jednocześnie: a) przybliżane położenie punktu projektowego, b) uaktualniana funkcja gęstości losującej obszarze skoncentrowanym nad punktem projektowym, c) uaktualniana aproksymacja powierzchni granicznej. W procesie adaptacyjnym należy dążyć do tego by można było zastosować optymalizacyjne metody gradientowe, znajdujące zastosowanie w przypadku różniczkowalnego wycinka powierzchni granicznej, to znaczy należy jak najszybciej ominąć punkty osobliwe powierzchni granicznej.
Punkty osobliwe często występują w konstrukcjach wrażliwych na utratę stateczności i nie wytrąconych z położenia bifurkacyjnego. Dla takich konstrukcji należy stosować specjalne metody adaptacyjne.
Metody łacińskich hiperkostek
Metoda łacińskich hiperkostek (ang . Latin Hypercube Sampling (LHS)) jest statystyczną metodą wytwarzania próbki prawdopodobnych zbiorów wartości parametrów wielowymiarowym rozkładzie prawdopodobieństwa. Metoda pobierania próbek metodą LHS, jest stosowana od roku 1980 po opublikowaniu pracy [79] i opracowaniu kodów komputerowych w latach kolejnych.
Podczas pobierania próbek funkcję
zmiennych, zakres każdej zmiennej jest podzielona na
równie prawdopodobnych odstępach czasu.
przykładowe punkty są następnie umieszczane w celu zaspokojenia wymagań łacińskich Hypercube; zauważyć, że powoduje to szereg podziałów
, być taki sam dla każdej zmiennej. Należy również pamiętać, że program ten nie wymaga pobierania próbek kolejne próbki do większej liczby wymiarów (zmiennych); Niezależność ta jest jedną z głównych zalet tego systemu pobierania próbek. Kolejną zaletą jest to, że losowe próbki mogą być podjęte po jednym na raz, pamiętając, których pobrano próbki do tej pory.
Metoda LHS tym różni się od standardowych losowań, że uwzględnia wcześniej wygenerowane próbki, a ponadto należy z góry założyć ile punków próbkowania jest potrzebne. W standardowej metodzie MC próbki są generowane bez uwzględnienia wcześniej wylosowanych i nie jest znana liczba próbkowań. W metodzie LHS zapamiętywane są miejsca pobrania próbek w zapisie macierzowym (wiersz i kolumna). Optymalna hiperkostka jest generowana w metodzie ortogonalnej , w której przestrzeń probabilistyczna jest dzielona na jednakowo prawdopodobne podprzestrzenie. Wszystkie punkty próbkowania ortogonalnego są wybierane jednocześnie każda podprzestrzeń jest próbkowana z tej samej gęstości.
W ten sposób próbkowanie ortogonalne zapewnia, że zespół liczb losowych jest bardzo dobrym reprezentantem rzeczywistej zmienności losowej próby, podczas gdy tradycyjne (zwane ekstensywnym) jest po prostu zespołem liczb losowych bez żadnych gwarancji reprezentatywności.
Maksymalna liczba kombinacji dla łacińskiej hiperkostki złożonej z
podziałów przy
zmiennych (czyli wymiarów) można obliczyć ze wzoru:
$$ \begin{equation} \left (\prod \limits_{n=0}^{M-1} (M-N) \right) = (M!)^{N-1} \label {98} \end{equation} $$
gdzie: M – liczba podziałów N-liczba zmiennych (N=2 – płaszczyzna, N=3 – przestrzeń). Przykładowo dla M=4, N=2 mamy 24 możliwych kombinacji; dla M=4, N=3 mamy 676 możliwych kombinacji(losowań)
Zwykle ten drugi sposób wystarcza do uzyskania wystarczającej ze względów praktycznych dokładności dla praktycznie częstych zagadnień, jeśli tylko spełnimy założenia generacji optymalnej hiperkostki. Dla uzyskania takiej samej dokładności w klasycznej metodzie MC zwykle potrzeba byłoby kilkaset razy więcej losowań.
Algorytmy genetyczne
Algorytmy genetyczne są stosowane w połączeniu z metodą łacińskich hiperkostek w istocie do generowania kolejnych hiperkostek w algorytmie znanym z sieci neuronowych, tzn pozwala przewidywać następną populację na podstawie analizy łącznych zmian generowanych przez kilkadziesiąt wcześniejszych populacji Ze względu na nieocenioną przydatność, algorytmy genetyczne w metodzie MC są przedmiotem wielu prac, np. [80].
Zastosowanie szeregu Neumanna
Do aproksymacji powierzchni granicznej stosuje się najczęściej rozwinięcie w szereg potęgowy Taylora. Wiele prac, np.: [81], [82], [83] pokazuje, że przy optymalnym doborze parametru konwergencji i zastosowaniu algorytmu MCC , efektywny jest rozkład w szereg Neumanna. Takie obserwacje są również renesansem pierwotnych idei opisanych na wstępie tego artykułu.
Zastosowanie twierdzenia Bayesa
Podejście Bayesa różni się fundamentalnie od istoty metody Monte Carlo, czyli podejścia częstotliwościowego do wyznaczania prawdopodobieństwa zdarzenia z definicji i zastosowania centralnego twierdzenia granicznego. Tymczasem przypadkowość i nieprzewidywalność zjawisk w dużej mierze związana jest z brakiem wiedzy o naturze modelu przetwarzającego zmienne wejściowe , a nie od rozrzutu tych zmiennych. Symulacja realizacji zmiennych wejściowych nie dotyka istoty rzeczy, a zwiększanie liczby symulacji nie musi prowadzić do przybliżania prawdopodobieństwa zdarzenia. Twierdzenia Bayesa (o prawdopodobieństwie warunkowym) opiera się na znacznie szerszej definicji prawdopodobieństwa od definicji częstotliwościowej.
Podejście Bayesa do wyznaczania prawdopodobieństwa zdarzenia przeżywa gwałtowny wzrost zainteresowania w niemal każdej dziedzinie [84].
Metody hybrydowe
Najbardziej efektywne jest stosowanie metod hybrydowych poprzez połączenie wymienionych wyżej metod w sposób dostosowany do konkretnego zagadnienia.
Praktyczne zastosowanie metod szybkich symulacji
Wprowadzenie
Rozpatrzmy zastosowanie szybkich metod Monte Carlo do rozwiązania zadania optymalizacyjnego teorii niezawodności, czyli zadania projektowania konstrukcji budowlanych. Podczas projektowania konstrukcji duże znaczenie ma zbadanie wpływu poszczególnych elementów i ich grup na niezawodność całego systemu konstrukcyjnego, co pozwala ujawnić słabe miejsca konstrukcji i doprowadzić do wymaganej niezawodności systemu poprzez prawidłowe zaprojektowanie szczególnie tych miejsc.
Przyjmijmy, bez utraty ogólności, że system jest złożony z n grup jednakowych w każdej grupie elementów, a czas bezawaryjnej pracy elementów i-tej grupy (1≤i≤n) ma wykładniczy rozkład prawdopodobieństwa ze średnią τi . Bez konkretyzowania pozostałych parametrów rozkładu i w szczególności zbiór stanów dopuszczalnych konstrukcji , oznaczmy przez Pf (τ1,…,τn) prawdopodobieństwo zniszczenia systemu w okresie użytkowania T, czyli w okresie czasu [0,T] przy znanych τi (1≤i≤n). Stopień wpływu niezawodności poszczególnych grup elementów na niezawodność całego systemu (wrażliwość systemu) wyraża gradient:
$$\begin{equation} \nabla P_f=\left [ \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_1} , …, \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_n} \right ]\label {99} \end{equation} $$
Zdefiniowana wrażliwość niezawodności charakteryzuje prędkość zmian niezawodności systemu przy zmianie niezawodności poszczególnych grup elementów. W praktyce projektowej nie można przestawić jawnych formuł na funkcje niezawodności Pf (τ1,…,τn) i wobec tego do poszukiwanie gradientu tej funkcji ∇ należy zastosować szybkie metody symulacji i oraz teoretycznych metod oceny dokładności rozwiązań, podanych na przykład w pracy [85]. Przedstawione metody pozwalają oszacować gradient stochastyczny, to jest wektor $\left [ \varphi_1 \tau_1 ,…, \tau_n), …, \varphi_n \tau_1 ,…, \tau_n \right ]$, taki, że [86]:
$$\begin{equation} E \gamma_i (\tau_1,…, \tau_n)=\cfrac{\partial P_f(\tau_1,…, \tau_n)} {\partial \tau_i}, 1\le i \le n]\label {100} \end{equation} $$
Ważną cechą metod szybkich symulacji jest to, że dla każdej realizacji i każdego elementu można ocenić jakość zbioru elementów, więc w trakcie prowadzenia symulacji można poprawiać proces i skupić się na elementach słabych, statystycznie istotnych cechach oraz kryteriach jakości. Można również ocenić „wkład” każdego elementu w niezawodność systemu.
Metody zmniejszenia dyspersji w zastosowaniu do wysoko-niezawodnych systemów
Przyjmijmy, że jest dany jest probabilistyczny model funkcjonowania systemu i należy określić pewną średnią cechę μ . Model systemu definiuje stopień jakości (na przykład niezawodności) poprzez funkcję losowych wielkości ζ=f(ξ1, ξ2,…). Zmienne ξ1, ξ2 mają zwykle sens czasu bezawaryjnej pracy elementów systemu, czas naprawy, okresy przeglądów i remontów okresowych itp. Znając ich rozkłady prawdopodobieństwa, na podstawie ich realizacji można określić realizację ich funkcji ζ. Jeśli Ω jest przestrzenią możliwych wartości wektora losowego ξ=[ξ1, ξ2,…] , pξ(x) jest gęstością rozkładu prawdopodobieństwa tego wektora , to można zapisać
$$\begin{equation} N =\int \limits _\Omega f(x) p_\xi (x)dx \label {101} \end{equation} $$
Przykłady rachunkowe
Przykład 1 [ Ścisłe momenty statystyczne a metoda linearyzacji ]
Pole powierzchni pręta zbrojeniowego o losowej średnicy D
Pręty zbrojeniowe są walcowane z błędami promienia R, rozłożonymi podług normalnego rozkładu prawdopodobieństwa z wartością oczekiwaną $\mathcal {E} R= \mu_r = r_o$ oraz odchyleniem standardowym $ \sigma_r$ , czyli funkcję gęstości można zapisać w postaci:
$ f(R)=\cfrac{1}{\sigma_r \sqrt2\pi}\cdot exp \left[-\cfrac{1}{2}\left(\cfrac{R – \mu_r}{\sigma_r}\right)^2\right]$
Z punktu widzenia wytrzymałościowego istotne jest pole przekroju zbrojenia
$A(R) = \pi R^2$,
które jest nieliniową funkcją losowego promienia $R$. W formułach ($\ref{10}$). w miejsce funkcji $\Theta(X) , będziemy podstawiać A(R).
Do wyznaczenia momentów losowych funkcji $A(R) $ : wartości średniej $ \mu_A$ oraz odchylenia standardowego $\sigma_A$ zastosujemy najpierw ścisłe formuły ($\ref{8}$), ($\ref{10}$).
($\ref{8}$) $\to$ $ \mu_A=\int \limits _{-\infty}^{\infty}\pi r^2 f(r) dr=\pi \cfrac {1}{\sigma \sqrt{2\pi}} \quad \int \limits _{-\infty}^\infty r^2\cdot exp \left[-\cfrac{1}{2} \left( \cfrac {r-\mu_r}{\sigma_r}\right)^2 \right]dr$
Ostatnia całka wraz z mnożnikiem $ \pi \cfrac{1}{\sigma_r \sqrt{2 \pi}}$ z definicji jest momentem drugiego rzędu losowej wielkości R, który oczywiście jest równy $r_o^2+\sigma_r^2$. Stąd otrzymujemy:
$\mu_A= \pi (r_o^2+\sigma_r^2)$
($\ref{10}$) $\to$ $ Var[A] = \sigma^2_A = \pi^2\cfrac{1}{\sigma_r \sqrt{2 \pi}} \int \limits_{-\infty}^\infty (r^2 – r_o^2 – \sigma_r^2)^2 \cdot exp -\left( \cfrac {r – r_0 }{\sigma_r}\right)^2 dr$
Po obliczeniu tej całki, otrzymamy:
$\sigma^2_A = 2 \cdot \pi^2 \sigma_r^2 \cdot (2 \cdot r_0^2 +\sigma_r^2) $
Linearyzacja zadania
Dla powyższego zadania, w którym ściśle obliczono wartość oczekiwaną i odchylenie standardowe pola przekroju pręta, oszacujemy te parametry w sposób przybliżony poprzez linearyzację funkcji
$A(r) = \pi r^2$ w otoczeniu wartości średniej promienia pręta $= r_0=\mu_r$.
Z rozwinięcia ($\ref{68}$) funkcji $A(r) w szereg Taylora po zachowaniu członów liniowych otrzymujemy liniową aproksymację w otoczeniu
$A(r) \approx A(r_o) + \cfrac{\partial A(r)}{\partial r}|_{r=r_0} = \pi \cdot r_o^2 + 2\cdot \pi \cdot r = \pi\ (r_0^2 +2\cdot r)$
skąd:
$ \mu_A\approx A (\mu_r)=A (r_0)=\pi {r^2}_0 $
$ {\sigma^2}_A = 4 \pi {r^2}_0 {\sigma^2}_r$
Porównując formuły przybliżone ze ścisłymi , widzimy, że wynik przybliżony jest dobry jeśli tylko $\sigma_r \ll r_0$, to jest jeśli odchylenie standardowe jest małe w stosunku do wartości oczekiwanej. Na przykład przy $V_r=\cfrac{\sigma_r}{\mu_r}= 10 \%$ , błąd oszacowania wartości oczekiwanej wynosi 1%, a odchylenia standardowego 0,5%.
Ugięcie wspornikowej belki Timoshenko o losowej długości L
Wyznaczymy momenty losowego ugięcie $f$ końca wspornikowej belki Timoshenko (z uwzględnieniem sztywności postaciowej) o losowej długości $L$ i innych parametrach nielosowych, w tym o nielosowej sztywności giętnej $EI$ oraz postaciowej $S_v$.
Przemieszczenie $f$ końca wspornika (pod siłą P) można wyznaczyć ze znanej zależności (np artykuł autora):
$f =\int \limits_0^L \left( \cfrac{M \overline M}{EI} + \cfrac{V \overline V}{S_v} \right ) dx$
Po „przemnożeniu wykresów sił”,pokazanych na rys.P1-1, otrzymujemy formułę na ugięcie $f$, które jest funkcją losowego argumentu $L$:
$Y=\cfrac {PL^3}{3EI} +\cfrac{PL}{S_v}= \cfrac{P }{3 EI}( L^3+ 3 k\cdot L)$
gdzie współczynnik podatności na ścinanie $k = \cfrac{EI}{S_v} $.
Parametry losowej długości belki
Przyjmijmy, że losowa długość pręta X=L ma jednostajny rozkład prawdopodobieństwa z gęstością prawdopodobieństwa:
$\cfrac{1}{2\cdot \Delta L}$ w przedziale $(L-\Delta L ; L+\Delta L)$, a poza tym przedziałem jest równa zero.
Rozkład ten pokazano na rys. 1. Tak przyjęty rozkład oznacza, że w przedziale możliwych wartości długości belki $L \pm \Delta L$, gdzie $\Delta L$ jest dopuszczalną tolerancją może przyjąć każdą wartość z tym samym prawdopodobieństwem
$p= Prob\{X=x\}= \cfrac{1}{2 \Delta L}$,
a kontrolę jakości wyklucza wartości spoza tego przedziału.
Z własności rozkładu jednostajnego, wynika że wartość oczekiwana długości belki wynosi
$\mu_L= \cfrac{(L-\Delta L)+(L+\Delta L)}{2}=L$,
a wariancja
$Var L= \cfrac{[(L- \Delta L)-(L+ \Delta L)]^2}{23}= \cfrac {\Delta^2 L} {3}$.
Ścisłe momenty statystyczne ugięcia wspornika Timoshenko
Wartość oczekiwana ugięcia belki obliczona ze znanej gęstości prawdopodobieństwa wynosi:
$\mu_f= C \cdot p \int \limits_{L- \Delta}^{L+ \Delta}\ (x^3 + 3k x) dx= C L (L^2 +\Delta^2 +3k)$
$\Delta=\Delta L$ ; $C=\cfrac{P}{3 EI}$ ; $p=\cfrac{1}{2 \Delta}$
Wariancja (2) ugięcia $f$ wynosi:
$ Var f = C^2 p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x)^2 dx = C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +3k^2 +\cfrac{6k}{5} (5 L^2 +\Delta^2) +\cfrac{\Delta^4}{18} \right) $
Dla długości belki wykonanej bez odchyłki wymiarowej $\Delta=0$ wariancja jest zerowa.
Kowariancja i współczynnik korelacji ugięcia f z losową długością L wynosi:
$Cov _{f L}= C p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x) \cdot (x-L) dx = C \Delta^2 \left ( L^2+k+\cfrac {\Delta^2}{5} \right)$
$\rho_{f L}=\cfrac{L^2+k +\cfrac{\Delta^2}{5}} {\sqrt{ (k+L^2)^2+ \cfrac {25}{105} (3k+5 L^2)\Delta^2 +\cfrac{\Delta^4}{32}}}$
Dla $\Delta=0$ korelacja jest pełna ($\rho_{f L}=1$).
Ścisłe momenty statystyczne ugięcia wspornika Bernoulligo
Dla $k=0$ (dla klasycznej belki Bernoulliego) powyższe formuły upraszczają się do postaci :
$\mu_f= C L (L^2 +\Delta^2)$,
$ Var f == C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +\cfrac{\Delta^4}{18} \right) $,
$ Cov \{ f, L \}=C \Delta^2 \left ( L^2\cfrac {\Delta^2}{5} \right) $,
$\rho_{fL}=\cfrac{L^2+\cfrac{\Delta^2}{5}} {\sqrt{ L^4+ \cfrac {25}{32}\Delta^2L^2 +\cfrac{\Delta^4}{32}}}$
Porównując (14) z funkcją (13) widzimy zgodność zapisu dla $\Delta=0 $, to znaczy dla długości belki wykonanej bez odchyłki wymiarowej. Do porównania wrócimy jeszcze podczas omawiania metody linearyzacji.
Ugięcie wspornikowej belki Timoshenko o losowej długości L. Metoda linearyzacji
Pochodna cząstkowa funkcji $f(x)$ (12) przy oznaczeniu $x=L$ wynosi:
$ Y(x)^{’}= \cfrac {\partial Y (x)}{\partial x}= 3C ( x^2+k)$
a zlinearyzwne momenty statystyczne wynoszą
$ \tilde {\mu_f}= \varphi(\mu_x)=3C(L^2+k) $,
$ tilde {Var f} = |\varphi^{’} (\mu_x)|^2 \cdot \sigma_x^2=|\varphi^{’} (L)|^2 \cdot \sigma_L^2=C^2 \Delta^4(k+L^2)^2$
Porównując powyższe oszacowania z wartościami ścisłymi otrzymujemy:
$ \cfrac {\mu_Y} {\tilde{\mu_Y}}=1+ \cfrac {\Delta^2} {L^2+3k}
\cfrac {Var Y} {\tilde{Var Y}}=1+….
W prezentowanym przykładzie dla $k=0$ (belka Bernoulliego) i dla spotykanego w praktyce $\cfrac {\Delta}{L} \approx 3 \%$ błąd oszacowania średniej i wariancji jest zaniedbywalny.
Przykład 2 [Bezpieczeństwa pręta żelbetowego zaprojektowanego wg Eurokod 2]
Sprawdzić bezpieczeństwo rozciąganego pręta żelbetowego o długości $L=6 m$. Zbrojenie pręta zaprojektowano zgodnie z normą [87] wariantowo:
A z 4-ch prętów, B z 8-miu prętów (o mniejszych średnicach). W zadaniu nie są istotne konkretne średnice prętów, ale stwierdzenie, że w każdym przypadku spełniono wymagania normowe, czyli projekt wykonano dla wymaganego przez normę PN-EN 1990 [88] wskaźnika niezawodności
$\beta_{global}=3,8 $.
Dane
Granica plastyczności prętów zbrojeniowych jest oznaczana na próbkach długości
$L^*=30 cm$
jako kwantyl 5%, czyli prawdopodobieństwo zniszczenia próbki wynosi
$p_{si}=0,95$
Pręt jest zbrojony prętami w liczbie
Wariant A: $m_A=4$ ;
Wariant B: $m_B=8$,
Wyniki
Wymagana niezawodność pręta
mierzona prawdopodobieństwem zniszczenia, wynosi
$p_s=\Phi(-\beta_{global})=\Phi(-3,8)=0,999927652$
Ustalenie typu systemu niezawodnościowego
Każdy z prętów zbrojeniowych jest złożony z $n=\cfrac {L} {L^*}=\cfrac {600}{46}=20$ elementów połączonych szeregowo.
Pręt żelbetowy jest strukturą z ogólnym rezerwowaniem, której model pokazano na rys. 7 i którą opisuje wzór ($\ref{44}$)
Ze wzoru ($\ref{44}$) obliczamy niezawodności systemu w poszczególnych wariantach liczby prętów:
Wariant A: $p_s = 1 – (1- 0,95^{85})^4=0,831$
Wariant B: $p_s = 1 – (1- 0,95^{85})^8=0,971$,
czyli w obu wariantach o kilka rzędów za małe od wymaganego $\beta = 3,8$, czyli
($\ref{57}$) $\to$ $p_s =1 -p_f = 1 – \Phi(-\beta) = 1 – 1 – \Phi(-3,8)= 1- 0,000072348 = 0,999927652$
Zbrojenie prętami o mniejszej średnicy, ale większej liczbie w wiązce zwiększa niezawodność systemu. W przykładzie uzyskaliśmy wzrost niezawodności mierzonej prawdopodobieństwem przeżycia o ok. 17%.
W celu uzyskania wymaganej niezawodności pręta- niezawodność elementów (odcinków zbrojenia) dla bardziej korzystnego wariantu B można wyznaczyć z równania:
$0,999927652=1-(1-p_{si}^{85})^8$.
Z rozwiązania tego równania uzyskano
$p_{si}=0,982$,
co daje współczynnik tolerancji ok. 2,10, a nie 1,64 jak dla normowego kwantyla 5% charakterystycznej wytrzymałości (granicy plastyczności) stali.
W w celu utrzymania niezawodności pręta na wymaganym poziomie przez normę PN-EN 1990 [88] należałoby istotnie zwiększyć nośność prętów zbrojeniowych poprzez zwiększenie ich przekroju lub klasy stali. Wymiarowanie pręta z warunku
$\beta \le 3,8$
nie jest przedmiotem niniejszego przykładu, ale prowadzone wyliczenia pokazały ważną okoliczność:
Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i to również wówczas, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa.
Niestety w europejskich normach projektowania nie uwzględnia się pokazanych wyżej mechanizmów niezawodnościowych.
Przykład3 [System szeregowy – kratownica statycznie wyznaczalna]
Zaprojektować kratownicę pokazaną na rys.P2-1, tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła β =3,8.
Dane
Analiza problemu
Rozwiązanie zadania podano w artykule
który jest wynikiem kursu prowadzonego w 2014 roku przez autora w ramach przedmiotu „Bezpieczenstwo i Niezawodność Budowli” na Wydziale Budownictwa Lądowrgo Politechniki Świętokrzyskiej w Kielcach:
Skrócone wnioski
- Niezawodność układu zależy od losowej zmiennościobciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.
Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i w praktyce inżynierskiejmoże być przyczyną katastrof budowlanych również wtedy, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa. - W doborze rozkładu prawdopodobieństw należy kierować się tylko przesłankami obiektywnymi, oraz dostępnymi narzędziami analitycznym:
a) rozkład Gaussa (normalny), stosowany w większości prac na temat bezpieczeństwa konstrukcji. zwykle prowadzi do uzyskania zbyt optymistycznego oszacoania niezawodnosći konstrukcji.,
b) dla bardziej realistycznych rozkładów ekstremalnychuzyskuje si e mniejsze niezawodnosći konstrukcji, - W praktyce inżynierskiej, do opisania charakteru obciążeń powinno się założyć, że są one określone rozkładem Gumbela (rozkład maximów), a wytrzymałość konstrukcji opisuje rozkład Weibulla (rozkład minimów).
Prz tym zastosowanie metody kolokacji rozkłądów prawdopodobieństwa, sprowadza analizę do znanych algorymów, wykorzytujących własności rozkładu normalnego, - Podany w pracy przykład potwierdza tezę, że przy analizie niezawodności konstrukcji, należy brać pod uwagę rodzaj rozkładu decydujących parametrów tj. obciążenia i wiodących zmiennyeh nośności.
Przykład 4 [System równoległy -sprężysto-plastyczna rama portalowa ]
Zaprojektować ramę pokazaną na rys. 11 , tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła β =3,8 .
Dane
Analiza problemu
Rozwiązanie zadania podano w odrębnym artykule:
Chodor L, Kłosowska J., Dobór elementów złożonej struktury konstrukcyjnej z warunku wskaźnika niezawodności, Kielce, 2014 .
Zastosowano klasyczne podejście teorii nośności plastycznej, a także najprostsze oszacowania granic niezawodności systemu niezawodnościowego.
Skrócone wnioski
- Niezawodność układu zależy od losowej zmienności obciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.Nośność systemu obliczona jako kwantyl globalny jest większa od sumy kwantyli lokalnych, co jest określane statystycznym efektem zwiększenia nośności obliczeniowej system równoległego.
Dla analizowanej ramy statystyczny efekt zwiększenia nośności obliczeniowej wynosi 15%, - Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne jest stosowanie oszacowań górnych i dolnych prawdopodobieństwa zniszczenia.
Przy założeniu, że minimalne cięcia systemu nie mają wspólnych elementów oszacowanie nośności granicznej konstrukcji z warunku $N = min N_k$
daje oszacowanie od dołu, faktyczna nośność plastyczna może być większa.
Przykład 5 [Minimalne ścieżki i cięcia i oszacowanie niezawodności systemu metodą Barlow-Proschan]
Przykład za pracą [89]
Wyznaczyć minimalne ścieżki cięcia kratownicy Ditlevsen-Madsen, pokazanej na rys. P4-1 oraz oszacować niezawodność systemu.
Dane
Kratownica Ditlevsen-Madsen (rys. 2-1) składa się z 10. elementów {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}. Kratownice podstawowe (1) do (6) uzyskano poprzez usunięcie odpowiednio pręta: 1, 2, 3, 4,5, 6, to znaczy są to wszystkie możliwe schematy geometrycznie niezmienne.
Sposób utworzenia kratownic podstawowych (1) do (6)
Systemy podstawowe )w tym przypadku kratownice podstawowe) są takie systemy utworzone z systemu oryginalnego (rys. P4-1a), w taki sposób, że po awarii części elementów system pracuje. W budownictwie „system pracuje” = ” system jest stabilny”, czyli pozostaje stabilny i wytrzymały.
W przypadku kratownicy Ditlevsen-Madsen do zbioru systemów podstawowych nie można zaliczyć systemó:
- z usuniętymi elementami 7, 8, 9 lub 10, bo to prowadziłoby do ustroju geometrycznie zmiennego (mechanizmu) i nie spełnia podstawowego warunku systemu konstrukcyjnego, a także wymogu dla minimalnej ścieżki elementów w konstrukcji budowlanej.
- z usuniętymi kolejnymi prętani w schemacie (1) do (6), bo konstrukcja budowlana zmieniłaby się w konstrukcję mechaniczną (mechanizm, czyli system o jednym stopniu swobody).
Minimalne ścieżki
Minimalne ścieżki kratownicy Ditlevsen-Madsen, obrazują schematy (1) do (6) na rys P4-1b. Odpowiadające zbiory elementów można zapisać następująco:
minimalne ścieżki (P4-1)
$\{2, 3, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 3, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 4, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 4, 5, 7, 8, 9, 10\}$
Każdy z tych systemów (mimalnych ścieżek) jest układem szeregowym z punktu widzenia niezawodności, zawierającym po n= 9 elementów (prętów).
Te minimalne ścieżki są pomiędzy sobą równolegle połączone z punktu widzenia niezawodności.
Minimalne cięcia
Ponieważ elementy 7, 8, 9, 10 występują w każdej minimalnej ścieżce, to mamy cztery minimalne cięcia po jednym elemencie w każdym zbiorze:
{17}, {28}, {27}, {28}.
Każdy z pozostałych sześciu elementów: 1 , 2 , 3 , 4 , 5, 6 występuje po pięć razy we wszystkich minimalnych ścieżkach, to znaczy, wszystkie pozostałe zestawy minimalnych cięć mają dwa elementy i pojawiają się w identycznych parach, a zatem istnieje $\cfrac {5 \cdot 6} {2}= 15$ minimalnych cięć z dwoma elementami, co zapiszemy następująco:
{1,2}, {1,3}, {1,4}, {1,5}, {1,6}, {2,3}, {2,4}, {2,5}, {2,6}, {3,4}, {3,5}, {3,6}, {4,5}, {4,6}, {5,6}.
Ostatecznie mamy 19. minimalnych cięć, które reprezentują system szeregowy z 19. oma elementami, z których 15. stanowi równoległe systemy z dwoma elementami. Ostatecznie mamy następujące minimalne cięcia
minimalne cięcia (P4-2)
$\{7\} ,\{8\} ,\{9\} ,\{10\}, $
$\{1,2\}, \{1,3\}, \{1,4\}, \{1,5 \}, \{1,6 \}, $
$\{2,3\}, \{2,4\}, \{2,5\}, \{2,6 \}, $
$\{3,4\}, \{3,6\}, $
$\{4,5\}, \{4,6\}, $
$\{5,6\}. $
Oszacowania niezawodności
Przyjmijmy dość oczywiste założenie stowarzyszenia elementów (stowarzyszenia zapasów nośności poszczególnych prętów kratownicy), a następnie przyjmijmy, że elementy mają identyczną niezawodność r :
$r_i = r \quad (i=1,…10)$
Zgrubne oszacowanie dla elementów stowarzyszonych, ale bez znajomości minimalnych ścieżek i cięć wyznaczamy z zależności ($\ref{63}$)
$ \prod \limits_{i=1}^{28} r_i =r^{28} \le r_s \le \prod \limits_{i=1}^{28} [1-(1 – r_i )]^{28} = [ 1- (1 – r )]^{28}$ (P4-3)
Jeśli uwzględniamy znajomość minimalnych ścieżek (P4-1) oraz minimalnych cięć (P4-2), to zgodnie z ($\ref{65}$), mamy:
(P4-4)
$ \max { \{ (r_2 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28}) \, ;\, (r_1 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9\cdot r_{28}) \, ;\, (r_1 \cdot r_2 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} ) \, ; \, \\ (r_1 \cdot r_2 \cdot r_3 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} ) \, ;\, (r_1 \cdot r_2 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} \} } \\ = r^9 \le r_s $
$\le \ min { ( r_7 + r_8 + r_9 + r_{28} – r_7 \cdot r_8 – r_7 \cdot r_9 – r_7 \cdot r_{28}) \, ;\, ( \, ……. \, ) }$
Dalsze rozważania zmieszczono w podręczniku Ditlevsen, Madsen (1996) [89].
Przyklad 6 [ Porównanie metod normalizowania rozkładu]
Oszacować prawdopodobieństwo zniszczenia $p_f= Prob ( R – E <0)$ oraz indeks niezawodności $\beta$ dla danych podanych niżej .
Przyjąc, że zmienne R i G nie są skorelowane: $ Cov (R, \quad E) =0 $
Dane
Analiza pomiarów empirycznych o liczebności w $N$ wytrzymałości pewnej konstrukcji $R$ oraz jej obciążenia $F$ wykazała, że parametry z próby wyznaczone z zależności
średnie empiryczne $ m_X = \sum\limits_{i=1}^N x_i $ ,
empiryczne odchylenia średniokwadratowe $ s_X = \sqrt{\cfrac{1}{N-1} \sum\limits_{i=1}^N (x_i -m_X )^2} $
wynoszą:
dla wytrzymałości (X=R): $m_R= 100$; $s_R= 10$
dla obciążeń (X=E): $m_E= 80$; $s_E= 20$
Po przeprowadzeniu testów statystycznych stwierdzono też, że:
R ma rozkład normalny $\mathcal N (\mu_N,\, \sigma_N)$ , gdzie można przyjąć: $\mu_N \approx m_R= 100$, $\sigma_N \approx s_R= 10$
E ma rozkład lognormalny $\mathcal L (\mu_L , \, \sigma_L)$, dla którego parametry wyznaczono niżej.
Transformacja zmiennej lognormalnej E $(\mathcal L ↔ \mathcal N)$
Wartość oczekiwana $\mathcal E[X]$ oraz wariancja $Var [X]$ wyznaczone ściśle ( z całkowania gęstości rozkładu normalnego zmiennej $X$ wynoszą:
tab.2 $\to$
$ \mathcal E [X] = \mu_X = e^{\left (\mu_{\mathcal L}+\sigma^2_{\mathcal L}/2\right)}$,
$ Var[X] = \sigma^2_X = e^{2 \mu_{\mathcal L}+\sigma^2_{\mathcal L}} \cdot \left ( e^{\sigma^2_{\mathcal L}} – 1 \right )$
gdzie $\\mu_{\mathcal L} $, $\sigma_{\mathcal L}$ parametry rozkładu lognormalnego ,
Zakładamy, że teoretycznie ścisła wartość oczekiwania i wariancja rozkładu jest wystarczająco dobrze określona przez estymatory empiryczne:
$\mu_X \approx m_X$
$\sigma_X \approx s_X$
Z odwrócenia powyższych zależności uzyskujemy wyrażenia na parametry rozkładu lognormalnego wyliczone na podstawie znanych empirycznej średniej $m_X$ i odchylenia standardowego $s_X$
$\sigma_{\mathcal L }= \sqrt{ \ln { \left [1+ (s_X/ m_X)^2 \right] } } = \sqrt{ \ln { \left [1+ v_X^2 \right] } }$.
$\mu_{\mathcal L } = \ln {\left ( m_X^2 / \sqrt{m_X^2 + s_X^2} \right)}= \ln {\left ( m_X / \sqrt{1+v_X^2 } \right)}= ln (m_X) – \cfrac{\sigma_{\mathcal L }^2}{2} $
gdzie współczynnik zmienności z próby wynosi $v_X= \cfrac{s_X}{m_X}$
W tab.6, w której podano estymatory z wyników z próby dla parametrów rozkładów najczęściej spotykanych w analizie konstrukcji budowlanych. Dla rozkładu lognormalnego uzyskano zgodność formuł)
Dla obciążeń (X=E): $m_E= 80$; $s_E= 20$ , $v_E =\cfrac{20}{80}=0,25$ mamy
$\mu_{\mathcal L } = \ln {\left (80 / \sqrt{1+ 0,25^2} \right)}= 4,352$
$\sigma_{\mathcal L }= \sqrt{ \ln { \left [1+ 0,25^2 \right] } } =0,246$.
Ponieważ zmienne $R$ i $E$ z założenia (w przykładzie) nie są skorelowane, więc nie trzeba przeprowadzać ich dekorelacji.
Transformacja do zmiennych standardowych (scentralizowanych)
Jeśli $X \sim \mathcal N (\mu_X, \,\sigma_R^2)$, to
standaryzacja do zmiennej $\sim \mathcal N (0, \,1 )$ odbywa się poprzez przekształcenie
$U_X = \cfrac{X- \mu_X}{\sigma_X}$
Jeśli $Y \sim \mathcal L (\mu_{\mathcal L } , \, \sigma_{\mathcal L }^2)$, to
$ ln Y \sim \mathcal N ( \mu_{\mathcal L } , \, \sigma_{\mathcal L }^2)$
a standaryzację $Y$ do zmiennej $\sim \mathcal N (0, \, 1 )$ można dokonać przekształceniem
$U_Y = \cfrac { ln Y – \mu_{\mathcal L}}{\sigma_{\mathcal L}}$
Transformacja funkcji granicznej do przestrzeni $U$
Oryginalną funkcję graniczną $g(R, \quad E) = R – E $
przekształcimy do U-przestrzeni, uwzględniając zależności:
$R = \mu_R + \sigma_R \cdot U_R$,
oraz
$ ln {E} = \mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E$, czyli
$ E= exp{ \mu_{\mathcal L} +\sigma_{\mathcal L}\cdot U_E}$.
Stąd funkcja graniczna w U-przestrzeni przyjmuje postać
$g(U_R, \, U_E) = R – E = \mu_R + \sigma_R\cdot U_R – \exp{(\mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E) }$
Powierzchnia graniczna g(…) jest liniową funkcją zmiennej $U_R$ i nieliniową zmiennej $U_E$
Gradient funkcji granicznej $\nabla g$
Składowe gradientu powierzchni granicznej wynoszą:
$ \cfrac{\partial g()}{\partial U_R}= \sigma_R$
$ \cfrac{\partial g()}{\partial U_E}= – \sigma_{\mathcal L} \cdot \exp{( \mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }$
Wektor gradientu $\nabla g()$ ($\ref{71}$) , ($\ref{72}$) wynosi
$ \nabla g(U_R, U_E)= \begin{bmatrix} \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) } \end{bmatrix}$
Norma gradientu (długość wektora) wynosi
$\parallel \nabla g (U_R, U_E) \parallel = \sqrt{ \left( \cfrac{\partial g}{\partial U_R}\right)^2+ \left( \cfrac{\partial g}{\partial U_E}\right)^2} = \sqrt{ \sigma_R^2 +[ \sigma_{\mathcal L}\cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }]^2} $
Wektor kierunkowy gradientu (normalny do powierzchni granicznej
$ \alpha (U) =\cfrac{1}{\parallel \nabla g (U_R, U_E) \parallel} \cdot \nabla g(U_R, U_E)= \begin{bmatrix} \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) } \end{bmatrix}$
W punkcie NPP wektor kierunkowy wynosi $\alpha^* = \alpha(U_E^*, U_E*)$
W metodzie FORM gradient $\nabla g(U)$ określa kierunek „najbardziej stromego wzrostu” funkcji granicznej, norma gradientu jest potrzebna do wyznaczenia wektora jednostkowego normalnego $\alpha$, oraz aktualizacji iteracji podczas poszukiwania punktu NPP.
Rozwiązanie problemu optymalizacyjnego do znalezienia NPP (punktu projektowego)
Punkt NPP wyznacza dominujący kierunek awarii i znajduje się przez rozwiązanie problemu optymalizacyjnego
$ \min \limits_{U=(U_R, U_E)} \cfrac{1}{2} \mathbf{U}^T\mathbf{U} $
czyli problemu
minimalizuj $\cfrac{1}{2}\parallel U \parallel^2$ przy ograniczeniu g(U)=0.
Zadanie rozwiązujemy metodą mnożników Lagrange’a $\lambda$.
Z warunków pierwszego rzędu mamy warunek stacjonarności problemu
$U+ \lambda \nabla g =0$, skąd
$U= – \lambda \nabla g =0$
Klasyczna iteracja R-F (Rakwitz-Fiessler) (1978) [90] (w przestrzeni $U$) ma postać:
$ U^{(k+1)} = \cfrac{g(U^{(k)})}{|||\nabla g(U^{(k)}) |} \cdot \alpha g(U^{(k)})$
Przykład 7 [ Oszacowania niezawodności metodą uogólnionej korelacji]
Wyznaczyć niezawodność belki żelbetowej , pokazanej na rys. P5-1 metodą uogólnionej korelacji,
Uwzględnić mechanizm zniszczenia zbrojenia (przekrój-warstwa 1), a także betonu (przekrój-warstwa 2) oraz mechanizm ścięcia przekroju przypodporowego 3. Zmiennymi losowymi zadania są własności materiałów: stali $ f_y $ oraz betonu $f_c$, a także rozstaw zbrojenia $s$ oraz obciążenia stałe $G$ oraz zmienne $Q$.

Rys. P5-1 Belka żelbetowa do przykładu 3 [60]
Pomiędzy wytrzymałością stali i betonu zachodzi korelacja statystyczna mierzona współczynnikiem korelacji $\rho_{b,s}=0,8$.
Nośności przekroju belki dla poszczególnych mechanizmów zniszczenia są następujące:
- nośność zbrojenia w zginanym przekroju 1: $R_1=b \cdot x_{eff}(d-0,5x_{eff})$, gdzie $x_{eff}= \cfrac {A_s \cdot f_y}{b \cdot f_c}$;
- nośność betonu w zginanym przekroju 2: $R_2=0,42 \cdot b \cdot d^2 f_c$;
- nośność na ścinanie w przekroju 3 : $R_3 = \sqrt{ 8 \cdot b \cdot d^2 \cdot A_{s,w} \cdot f_{y,w} \cdot f_{c,t}}$.
Liczba wyżej wymienionych mechanizmów jest liczbą elementów systemu niezawodnościowego,
$n=3$
Siły przekrojowe wynoszą:
moment zginający w środku rozpiętości $ S_1=\cfrac {(G+Q) \cdot l^2} {27}$;
siła poprzeczna $ S_3=\cfrac {(G+Q) l}{2}$
Powyższe związki funkcyjne prowadzą do skorelowania nośności oraz sił przekrojowych, nawet jeśliby zmienne wejściowe były niezależne. Po przeprowadzeniu obliczeń pierwszego rzędu (linearyzacji), otrzymano wartości parametrów statystycznych, zestawione w tab P5-1. Szczegółowych obliczeń w tym zakresie nie przeprowadza się, ponieważ nie są one przedmiotem przykładu. Ze względu na silnie nieliniowe związki pomiędzy zmiennymi sugerujemy, by obliczenia prowadzić metodami symulacyjnymi za pomocą ogólnie dostępnych generatorów liczb losowych i procedur numerycznych, a nie w drodze przekształceń wzorów.
Tab. P5-1 Parametry statystyczne zmiennych do przykładu 5.
Średni współczynnik uogólnionej korelacji ($\ref{94}$) wynosi: $\rho_m= \cfrac{2(0,332+0,371+0,580)}{3\cdot (3-1)}=0,428$
Miarodajny współczynnik korelacji ($\ref{89$) wynosi:
$ \rho = 0,428 \{ 2-[0,428 + \cfrac {(1-0,428) \cdot (3-log3)} {1-0,1 \cdot 0,428^2 \cdot (3-log3)^2 } ] \} \approx 0$
W przykładzie założymy, że zapasy bezpieczeństwa dla poszczególnych mechanizmów $Z_1$, $Z_2$, $Z_3$ mają normalny rozkład prawdopodobieństwa.
Wówczas indeksy niezawodności wynoszą:
$\beta_1=\cfrac {\mu_{Z_1}}{\sigma_{Z_1}} =\cfrac{109}{51,9}=2,10$,
$\beta_2= \cfrac{474}{132}=3,59$,
$\beta_3= \cfrac{127}{55,5}=2,29$.
Z tablic rozkładu normalnego uzyskujemy prawdopodobieństwo niezawodności dla poszczególnych mechanizmów zniszczenia:
$ p_{s1}=\Phi (2,10)= 0,98214$,
$ p_{s2}=\Phi (3,59)=0,99983$,
$ p_{s3}=\Phi (2,29)=0,98899$.
Niezawodność systemu ($\ref{92}$), wynosi:
$ p_s \approx 0,0 \cdot \min \{ p_{s1} ; p_{s2} ; p_{s3} \}+(1-0,0) [1- (1-p_{s1}) \cdot (1-p_{s2}) \cdot (1-p_{s3})]=0,0 +1,0[1-(1-0,98214)(1-0,99983)(1-0,98899)]=0,9999$
Można wykazać, że dokładniejsze oszacowanie niezawodności systemu wskazuje, że jest ona nieco mniejsza wynosi 0,9918.
Niezawodności poszczególnych mechanizmów dokładniej opisuje się krzywymi Gram-Charlier z uwzględnieniem ekscesu i skośności rozkładu [60] .
Przykład 7 [ Żelbetowa rama portalowa. Metoda uogólnionej korelacji ]
Wyznaczyć niezawodność ramy portalowej (rys.P6-1), złożonej z 8-miu elementów: 1- mechanizm zniszczenia dolnego zbrojenia rygla, 2- mechanizm zniszczenia ściskanego betonu, 3- mechanizm zniszczenia przekroju na ścinanie, 4 – słup, 5, 6 – stopa słupa, 7- kielich słupa, 8 – podłoże gruntowe .

Rys.P6-1. Żelbetowa rama portalowa , poddana działaniu wiatru i obciążeń pionowych: A- rygiel, B-słup, C-fundament [58]
Niezawodności poszczególnych elementów (mechanizmów zniszczenia) wynoszą:
[$p_{s1};…; p_{s8} $]=[99,8; 99,9; 99,6; 95,1; 92; 95,9; 99,9; 99,7]%, a współczynniki korelacji
[$\rho_{1,2};…\rho_{7,8}$]=[0,38; 0,34; 0,58; 0,8; 0,7; 0,9; 0,8].
Dla poszczególnych podsystemów mamy:
podsystem A (rygiel):
($\ref{94}$) → $\rho_m=(0,39+0,35+0,58)/3=0,44$,
($\ref{89$) → $\rho \approx 0$,
($\ref{92}$) → $p_{sA}=0,998\cdot 0,999\cdot 0,996=0,993$
podsystem B (słup):
($\ref{94}$) → $\rho_m=(0,8+0,7+0,93)/3=0,81$,
($\ref{89$) → $\rho \approx 0,81\{ 2-[0,81+ \cfrac{(1-0,81)(3-log3)}{1-0,1\cdot 0,81^2(3-log2)^2}]\}=0,21$,
($\ref{92}$) → $p_{sB} \approx 0,21 \cdot 0,92+(1-0,21)[1-(1-0,951)(1-0,92)(1-0,959)] \approx 0,9831$
podsystem C (fundamenty):
($\ref{89$) → $\rho \approx 0,8\{ 2-[0,8+ \cfrac{(1-0,8)(3-log 2)}{1-0,1\cdot 0,8^2(3-log2)^2}]\}=0,59$,
($\ref{92}$) → $p_{sB} \approx 0,59\cdot 0,997+(1-0,59)\cdot 0,999 \cdot 0,997 \approx 0,9966$
System (Rama=A+B+C):
Podsystemy są losowo niezależne, więc należy je traktować jako system szeregowy z punktu widzenia niezawodności. Na podstawie formuły (20) mamy:
$p_s=0,993 \cdot 0,9831 \cdot 0,9966=0,9729$.
Przykład 8 [Bikonstrukcja (sprzężone dźwigary płaskie). Metoda uogólnionej korelacji]
Na prostym przykładzie zespołu kratownic płaskich K1, K2 (prawa, lewa) (rys. P7-1) sprzężonych stężeniami T1 (górne i dolne) oraz T2 (pionowe) przeanalizujemy wpływ stężeń na niezawodności bikonstrukcji.
Analiza wpływu stężeń na nielosową nośność bikonstrukcji
Mechanizmy zniszczenia ustroju zależą o konfiguracji obciążeń. Dla dominujących obciążeń pionowych kratownice K1 i K2 są obciążone siłami pionowymi w węzłach pasów górnych. W przypadku rozprzężenia ( braku stężeń T1 i T2) mechanizm zniszczenia kratownicy K1 (lub K2) pokazano na rys. Rys P7-2 .

Rys. P7-2. Mechanizm zniszczenia kratownicy K1 pod obciążeniami pionowymi (kratownica przed zniszczeniem – szara, po zniszczeniu -niebieska). Zniszczenie polega na utracie płaskiej postaci zginania
Obraz z rys. P7-2 uzyskano dla kratownicy o wysokości 3 m, rozpiętości 5×3=15 m, obciążonej siłami skupionymi V=23 kN w każdym węźle górnym i równoważnymi siłami poziomymi od imperfekcji H=V/100=0,23 kN i po przeprowadzeniu obliczeń 2-rzędu $P-\Delta$.
Dla prętów wykonanych z RP 200x100x5-S355 (większy wymiar rury w pionie), czyli o sztywności osiowej
$ EA=2,1 \cdot 10^5 \cdot 28,36 \cdot 10^{-4}=5,96 \cdot 10^2 MN$ (P7-1)
(moduł Younga stali $E=2,1 \cdot 10^5 MPa$ ; pole przekroju dla RP 200x100x5: $A=28,36 cm^2$)
Obliczenia wykazały) (rys. P7-3), że krytycznym punktem konstrukcji jest pas dolny przy podporze, który przy uwzględnieniu zjawisk niestateczności i innych warunków normowych [91] jest pod obciążeniem porównawczym V=23 kN wytężony w 90,9 %.
Oznacza to, że obciążenie można w zwiększyć o 1/90,9%=1,100, czyli do wartości $V=1.1 \cdot 23=25,3 kN$. Graniczny mnożnik obciążenia (nośność konstrukcji ) wynosi:
$\Lambda=1,10$, (P7-2)
Przemieszczenia końca wspornika wynoszą: pionowe $\delta_z= 22 mm$, a boczne $\delta_y=18 \cdot \delta_z$ przy 100x mniejszej sile poziomej. Skrócenie pręta (od spaczenia 2- rzędu) wynosi $\delta_x= \cfrac{\delta_z} {28}$.

Rys. P7-3. Sprzężone kratownice płaskie: a) stężeniem górnym T1, b) stężeniem czołowym T2, c) stężeniami T1+T2, d) stężeniami T1+T2+T1* (stężone dolne pasy)
W tab. P7-1 zestawiono nośności bikonstrukcji sprężonej stężeniami w układach z rys. P7-3.
Tab.P7-1. Wpływ stężeń bikonstrukcji na jej nośność $\Lambda$

Sprzężenie pasów górnych stężeniem T1 prowadzi do wzrostu nośności $\cfrac{2,0} {1,105} = 81%$. Natomiast sprzężenie czoła stężeniem T2 o 63%, a stężeniami T1+T2 o 94%. Sprzężenie pasów dolnych jest niekorzystne z powodu nadmiernego skrępowania bikonstrukcji.
Nośność bikonstrukcji stężonej przez T1+T2 zwiększyła się dwukrotnie w stosunku do rozprzężonej kratownicy płaskiej. Należy zwrócić uwagę na to, że efekt taki uzyskano przy obciążeniu każdego węzła identyczną siłą – to znaczy sumaryczne obciążenie bikonstrukcji jest dwa razy większe od obciążenie kratownicy płaskiej.
Wpływ stężeń T1 i T2 na niezawodność bikonstrukcji
Przenalizujemy wpływ stężeń T1 i T2 niezawodności bikonstrukcji.
Przyjmiemy, że informacje o stężeniu o zadanym układzie geometrycznym są zintegrowane w jednej wejściowej zmiennej losowej X, którą jest sztywność osiowa pręta stężenia. Natomiast zmienną wyjściową $Y$ jest nośność konstrukcji $\Lambda$.
$ X=EA$ \quad ; \quad $Y=\Lambda$ (P7-3)
gdzie:
E jest moduł Younga,
A pole przekroju pręta
$\Lambda$ mnożnik obciążenia przy którym konstrukcja przestaje spełniać warunki graniczne.
Wpływ stężeń T1
Rozważmy najpierw wpływ tylko stężeń T1. Brak stężeń T1 oznacza realizację bikonstrukcji ze stężeniami o zerowej sztywność (EA=0). Natomiast realizacje nośności bikonstrukcji o sztywności nominalnej zestawiono w tab.P7-1.
Dla tych dwóch punktów sporządzono nielosową zależność nośności konstrukcji od sztywności stężeń T1 i pokazano ją na rys. P7-4.
Funkcję stanu granicznego $Y=g (X)$ w tym przypadku opisuje prosta
$ Y=\varphi (X)=1,1+1,5 \cdot 10^{-3} X $ (P7-4)
W przypadku większej liczby punktów obliczeniowych dokładność wyznaczenia zależności $EA \to \Lambda$ zwiększy się. Funkcję ciągłą w tych przypadkach zaleca się wyznaczać procedurami metody minimów kwadratów (metodami regresji) dla funkcji sklejanych z odcinków parabol. Procedura ogólna będzie przedmiotem innego opracowania. W tym przypadku wyznaczamy podstawowy tok postępowania i nie będziemy rozszerzać rozważań na okoliczności poboczne.
Parametry statystyczne zmiennej wejściowej X=EA, określimy na podstawie publikowanych wyników badań dla modułu Younga oraz pola przekroju profili stalowych [92] :
moduł Younga E: $\mu_E=2,1 10^5 MPa$; $v_E=1,5%$,
współczynnik zmienności długości ścianki: $v_l=3%$
współczynnik zmienności grubości ścianki: $v_t=2%$
pole przekroju A: $\mu_A= 28,36 cm^2$ ( z tablic producenta); $v_A= \sqrt{4( 3^2\%+2^2\%)}=3,6\%$ (cztery ścianki rury prostokątnej)
sztywność EA:
$ (P7-1) \to $ $\mu_{EA}=5,96 \cdot 10^2 \, kN $;
$v_{EA}=\sqrt{ 1,5^2+3,6^2}=3,6 \%$;
$\sigma_x=v_{EA} \cdot \mu_{EA}= 5,96 \cdot 10^2 \cdot 3,6 \%=0,215 \cdot 10^2 =21,5\, kN $,
Powyżej wyrażenia na współczynniki zmienności funkcji otrzymano w drodze linearyzacji, w sposób analogiczny jak pokazano niżej.
W celu zaprezentowania metody, parametry statystyczne funkcji (P7-4) wyznaczymy metodą linearyzacji mimo, że funkcja jest liniowa i można wyznaczyć je z definicji.
$\varphi(x)^{’} = \cfrac {\partial \varphi(X)}{\partial X}= 1,5 \cdot 10^{-3}$
$\sigma_y^2= [\varphi(0^{’}]^2 \cdot \sigma_x^2=(1,5 \cdot 10^{-3})^2\cdot 70,3^2 = 7,4 \cdot 10^{-3}$
Postępując analogicznie, wyznaczamy parametry losowe funkcji wpływu stężeń. W analizie niezawodności istotne jest uwzględnienie zmienności wpływających czynników, co pozwala na dokładniejsze modelowanie ryzyka awarii. Zastosowanie odpowiednich metod statystycznych pozwala na określenie prawdopodobieństwa wystąpienia niepożądanych zdarzeń, co jest niezbędne w projektowaniu i eksploatacji obiektów inżynieryjnych. Właściwe określenie tych parametrów może znacząco wpłynąć na poprawę bezpieczeństwa i efektywności konstrukcji.
Literatura
- Korn T., M. , Matematyka dla pracowników naukowych i inżynierów (Tom. 1, 2), PWN, Warszawa, 1983
- PN-EN 1990:2004, Eurokod: Podstawy projektowania konstrukcji
- Melnyk M. (1974), Principles of applied statistics. Pergamon Press
- Cox D. R., Hinkley D. V. (2000). Theoretical statistics. Chapman & Hall/CRC, 2000
- Seber G. A. F., Lee A. J., Linear regression analysis (2nd ed). Wiley-Interscience, 2003
- PN-ISO 2394:2000, Ogólne zasady niezawodności konstrukcji budowlanych
- IFSC (Ed.),(2010). Model Code 2010 (Vol. 1). International Federation for Structural Concrete
- Storey N.,(2010). Safety-critical computer systems (Nachdr.). Prentice Hall
- Leveson, N. G. (1995), Safety as a system property. Communications of the ACM, 38(11), 146
- Websters M. (Ed.), (1996). Webster’s encyclopedic unabridged dictionary of the Eng-lish language (New deluxe ed). Gramercy Books (Div. of Random House
- Frei D. (1977). Sicherheit: Grundfragen d. Weltpolitik (1. Aufl). Kohlhammer
- Murzewski, J. (1989). Niezawodność konstrukcji inżynierskich. Arkady
- Hasofer, A. M., Lind, N. ., C., (1974). Exact and invariant second-moment code format. Journal of Engineering Mechanics Division ASCE, Vol.100(No EM1/1974), 111–121
- Wikipedia. (2016). Bezpieczeństwo.[ https://pl.wikipedia.org/w/index.php?title=Bezpiecze%C5%84stwo&oldid=45884012 ]
- Główny Urząd Nadzoru Budowlanego, Katastrofy budowlane w 2024 roku, Warszawa, lipiec 2025
- Department of Defense USA, System Safety. MIL-STD-882E, Standard practice, 2012, [ http://www.system-safety.org/Documents/MIL-STD-882E.pdf]
- Rausand, M., Hoyland, A. (2004), System Reliability Theory. Models, Statistical Methods, and Applications. Wiley Interscience
- Kapur K. C., Lamberson L. R. (1977), Reliability in engineering design. Wiley
- Barlow R. E., Proschan F. (1974). Statistical theory of reliability and life testing: probability models. Holt, Rinehart and Winston
- Migdalski J. (Ed.). (1982). Poradnik niezawodności. Podstawy matematyczne, Wydawnictwa Przemysłu Maszynowego WEMA
- Cornell C. A. (1969). A Probability Based Structural Code. American Concrete Institute Journal, 66, 974–985
- Augusti G., Barattta A. (1972). Limit analysis of structures with stochastic strengths variations. Journal of Structural Mechanics, 1(1), 43–62
- Barlow R. E., Proschan F. (1974). Statistical theory of reliability and life testing: Probability models. Holt, Rinehart and Winston
- Ditlevsen O. (1979). Narrow reliability bounds for structural systems. Journal of Structural Mechanics., 7(4), 453–472
- Żukowski S. (2006), Ocena bezpieczeństwa płaskich konstrukcji prętowych w aspekcie teorii przystosowania. Oficyna Wydawnicza Politechniki Wrocławskiej, [ http://direct.dbc.wroc.pl/Content/1462/zukowski_ocena_bezpieczenstwa.pdf ]
- Bobrowski D. (1985). Modele i metody matematyczne niezawodności. Wydawnictwo Naukowo-Techniczne, Warszawa
- Załęska-Fornal A. (2006). Miary niezawodnościowej i strukturalnej istotności elementów. Rok XLVII [3(166)], 137–150. [http://yadda.icm.edu.pl/yadda/element/bwmeta1.element.baztech-article-BWM9-0001-0010/c/Zaleska-Fornal_A.pdf ]
- Lundberg J.E., Galambos T.V., Load and resistance factor design of composite columns. Structural Safety, 18 (1996), str. 169–177
- Razzaq Z., Prabhakaran R.: Load and resistance factor design (LRFD) approach for reinforced-plastic channel beam buckling. Composites: Part B, 27B (1996), str. 361–369
- King L., Toutanji H., Vuddandam R.: Load and resistance factor design of fiber reinforced polymer composite bridge deck. Composites: Part B, 43 (2012), str. 673–680
- Elishakoff I.: Probabilistic methods in the theory of structures. John Wiley and Sons, Chichester 1983
- Breitung K. (1984) Asymptotic approximations for multinormal integrals, J Eng Mech 110:357–366. [ https://doi.org/10.1061/(ASCE)0733-9399(1984)110:3(357)]
- Tvedt L., “Two Second-Order Approximations to the Failure Probability—Section on Structural Reliability,” A/S Veritas Research, Hovik, 1984.
- Hohenbichler M, Rackwitz R. (1988) Improvement of second-order reliability estimates by importance sampling. J Eng Mech 114:2195–2199. [ https://doi.org/10.1061/(ASCE)0733-9399(1988)114:12(2195)]
- Köylüoǧlu HU, Nielsen SRK (1994) New approximations for SORM integrals. Struct Saf 13:235–246. [https://doi.org/10.1016/0167-4730(94)90031-0]
- Cai GQ, Elishakoff I (1994) Refined second-order reliability analysis, Struct Saf 14:267–276. [ https://doi.org/10.1016/0167-4730(94)90015-9]
- Zhao Y-G, Ono T (1999) New approximations for SORM: part 1. J Eng
Mech 125:79–85. [ https://doi.org/10.1061/(ASCE)0733-9399(1999)125:1(79)] - Mansour R, Olsson M (2016) Response surface single loop reliabilitybased design optimization with higher-order reliability assessment. StructMultidiscip Optim54:63–79. [ https://doi.org/10.1007/s00158-015-1386-x]
- Hu Z, Du X (2018), Saddlepoint approximation reliability method for quadratic functions in normal variables. Struct Saf 71:24–32. [ https://doi.org/10.1016/j.strusafe.2017.11.001]
- Park J.W., Lee I. (2018) A study on computational efficiency improvement of novel SORM using the convolution integration. J Mech Des Trans ASME 140. [https://doi.org/10.1115/1.4038563]
- Pugachev V. S. (1984). Probability Theory and Mathematical Statistics for Engineers. Pergamon Press
- Pugachev V. S. .Probability Theory and Mathematical Statistics for Engineers. Pergamon Press), 1984
- Rosenblatt M , Remarks on a multivariate transformation. Ann Math Stat 23:470–472, (1952
- Hohenbichler M, Rackwitz R ,Non-normal dependent vectors in structural safety. ASCE J Eng Mech Div 107:1227–1238 (1981
- Nataf A ,Determinaiton des distributions don’t les marges sont donnees. Comput Rendus l’Academie Des Sci Paris 225:42–43, (1962
- Liu PL, Der Kiureghian A.,Multivariate distribution models with prescribed marginals and covariances. Probabilistic Eng Mech 1:105–112. (1986)
- Lu ZH, Cai CH, Zhao YG, Leng Y, Dong Y ., Normalization of correlated random variables in structural reliability analysis using fourth-moment transformation. Struct Saf 82:101888, (2020)
- Ditlevsen, O. Uncertainty modeling with applications to multidimensional civil engineering systems, McGraw-Hill Book Co., Inc.,New York, 1981
- Ang, A. H.-S., and Tang, W. H., Probability concepts in engineering planning and design, Vol. I, basic principles. John Wiley and Sons, Inc., New York, 1975
- Rackwitz, R., Practical Probabilistic approach to design, Bull.1l2, Commite European du Beton, Paris, 1976
- Madsen, H. 0., Krenk, S., and Lind, N. C, Methods of structural safety. Prentice-Hall, Inc., Englewood Cliffs, N.J., 1986
- Melchers, R. E. , Structural reliability: analysis and prediction, Ellis Horwood Ltd., Chichester, West Sussex, England, 1987
- Dai, S. H., and Wang, M. O., Reliability analysis in engineering applications. Van Nostrand Reinhold, New York, 1992
- Tichy, M., Applied methods of structural reliability. Kluwer Academic Publishers Group, Boston, Mass., 1993
- Hu Z., Mansour R., Olsson M., Du X., Second-order reliability methods: a review and comparative study, Structural and Multidisciplinary Optimization 64:3233–3263, (2021
- Veneziano, D., Contributions to second moment reliability, Res. Rep. No. R74-33. Dept. of Civ. Engrg., Mass. Inst. of Techno!., Cambridge, Mass., 1974
- Low, B.K., and Tang, Wilson H., Efficient reliability evaluation using spreadsheet, J. of Engrg. Mech., ASCE, New York, 123(7), 749-752 (1997
- Kudzys A. P., Ocenka nadeznosti zelezobetonnych konstrukcij ( Relaibility estimation of reinforced concrete structures. Mosklas Publisher, Moskva, 1985
- Izdatelstvo standartov, Metodyka rasceta nadeznosti izdelij z ucetom postepennych otkazov. Izdatelstvo standartov, Moskva, 1976
- Kudzys A. P., Ocenka nadeznosti zelezobetonnych konstrukcij ( Reliability estimation of reinforced concrete structures. Mosklas Publisher, Moskva, 1985
- Box G.E.P.; Wilson, K.B., On the Experimental Attainment of Optimum Conditions. Journal of the Royal Statistical Society, Series B. 13 (1): 1–45,1951
- Harr, M.E. ,Probabilistic Estimates for Multivariate Models, Journal of the Engineering Mechanics Division, ASCE., 1967
- Harr, M.E. , “Mechanics of Particulate Media: A Probabilistic Approach.” McGraw-Hill,, 1977
- Harr, M.E. Reliability-Based Design in Civil Engineering. McGraw-Hill.,1984 / 1987
- Baker, M.J., “Structural Reliability and the Second-Moment Method, Journal of the Structural Division, ASCE., ,1975
- Baker, M.J., Thoft-Christensen, P., Structural Reliability Theory and Its Applications. Springer. ((1982
- Thoft-Christensen, P., & Baker, M. J. , Structural Reliability Theory.” Wiley, 1982
- Rosenblueth, E..General Two-Point Estimates in Probabilistic Design.ASCE, J. Eng. Mech. ,1986
- Marek P., Guštar M., Anagnos T. (1995). Simulation-Based Reliability Assessment for Structural Engineers. CRC Press, Inc.
- Jermakow S. M. (1976). Metoda Monte Carlo i zagadnienia pokrewne. PWN, Warszawa
- Buslenko N. P., Golenko D. I., Sobol I. M., Sragowicz W. G., Szrejder J. A. (1967). Metoda Monte Carlo (I). Państwowe Wydawnictwo Naukowe, warszawa
- Kopociński B. (1977). Zarys teorii odnowy i niezawodności. PWN, Warszawa
- Gwóźdź M., Machowski A. (2011). Wybrane badania i obliczenia konstrukcji budow-lanych metodami probabilistycznymi. Wydawnictwo Politechniki Krakowskiej, Kraków
- Hasofer A. M., Lind, N., C. (1974), Exact and invariant second-moment code for-mat. Journal of Engineering Mechanics Division ASCE, Vol.100(No EM1/1974), 111–121
- Buslenko, N. P. (1978). Modelirowanije zloznych sistem. Izdatelstvo Nauka
- Jones O., Maillardet R., Robinson A. (2009). Introduction to scientific programming and simulation using R. CRC Press
- Stocki R. (2010). Analiza niezawodności i optymalizacja odpornościowa złożonych konstrukcji i procesów technologicznych, Praca habilitacyjna, IPPT PAN, Warszawa
- Melchers R. E. (1992). Simulation in time-invariant and time-variant Reliability Prob-lems. In R. Rackwitz & P. Thoft-Christensen (Eds.), Reliability and Optimization of Structural Systems 91 (Vol. 76, pp. 39–82). Springer Berlin Heidel-berg. http://www.springerlink.com/index/10.1007/978-3-642-84753-0_3
- McKay M.,D., Beckman R., J., Conover W., J., (1979), Comparison of Three Methods for Selecting Values of Input Variables in the Analysis of Output from a Computer Code, Technometrics, 21, (2), pp. 239-245
- Stocki R., Liefvendahl M. (2006), A study on algorithms for optimization of Latin hy-percubes. Journal of Statistical Planning and Inference, 136(9), 3231–3247
- Grigoriu M. (2012), Stochastic Systems. Uncertainty Quantification and Propagation. Springer
- Ávila da Silva Jr. C. R., Beck A. T. (2015). New Method for efficient Monte Carlo – Neumann solution of linear stochastic systems. 40, 90–96
- Ávila da Silva Jr. C. R., Beck A. T. (2015), Efficient bounds for the Monte Carlo – Neumann solution of stochastic thermo-elasticity problems. International Journal of Solids and Structures, 58, 136–145
- O’Hagan A. (2006), Bayesian analysis of computer code outputs: a tutorial. Reliability Engineering and System Safety, 91, 1290–1300
- Franken, P., Konig, D., Arndt, U., & Schmidt, V. (1982). Queues and point processes. Wiley
- Kovalenko, I. N., & Kuznetsov, N. I. (1988). Metody rascheta vysokonadezhnykh sistem (Nauch. izd). Radio i sviaz
- PN-EN 1992-1+AC+Ap 1,2,3: 2008, Projektowanie konstrukcji z betonu, Część 1-1: Reguły ogólne i reguły dla budynków
- PN-EN 1990:2004, Eurokod: Podstawy projektowania konstrukcji
- Ditlevsen, O., & Madsen, H. O. (1996). Structural reliability methods. Wiley
- Rackwitz R, Flessler B (1978) Structural reliability under combined random
load sequences. Comput Struct 9:489–494. [ https://doi.org/10.1016/0045-7949(78)90046-9] - PN-EN 1993-1-1+A1:2006, Eurokod 3. Projektowanie konstrukcji stalowych, Część 1-1: Reguły ogólne i reguły dla budynków
- Mrazik A. (1987). Teoria Spolahlivosti ocelovych konstrukcii. VEDA Vydatelstvo slovenskej akadamie VIED
________________________________


















