A B D E F G H I K Ł M N O P R S T U W Z

Niezawodność konstrukcji. Elementarz dla projektantów

Leszek Chodor,  23 maj 2014
18.06. 2016 ; 29-07-2025 dodanie przykładów
06.11. 2025  scalenie artykułów i naprawa po poważnej awarii portalu.

W przypadku nieczytelnych treści, proszę powiadomić: leszek@chodor.co

 W ciągu ostatnich 24 godzin z artykułu korzystało  75 Czytelników

Poznaj kluczowe zasady niezawodności systemów konstrukcyjnych w naszym praktycznym przewodniku.
Konstrukcje budowlane znamienne są tym, że są wysoko-niezawodne (operują w „ogonach rozkładów” zmiennych losowych) i są bardzo złożonymi systemami w sensie teorii niezawodności (są to systemy pomieszane z systemów szeregowo-równoległych) dla których  konieczne jest znajomość oszacowań górnych i dolnych prawdopodobieństwa zniszczenia. Przedstawiono metody FORM I SORM, a także mniej znanej metody uogólnionej korelacji, stosowane w analizach probabilistycznych  konstrukcji budowlanych. Analizy zilustrowano przykładami liczbowymi. Sformułowano praktyczne wnioski ważne dla projektanta konstruktora. 

Spis treści ukryj
8 Przykłady rachunkowe

Tablice projektanta

Zmienne losowe

Tab.1. Parametry zmiennych losowych Tabela parametrów zmiennych losowych

Uwaga:
W przypadku zmiennych odcinkami ciągłych powyższe definicje będą uogólnione przez zastosowanie ciągów sum całek rozciągniętych na przedziały ciągłości. Jeśli zmienne jest dyskretna, to całki będą zastąpione sumami.

Tab. 2 Wybrane rozkłady jednowymiarowych zmiennych losowych ciągłych, stosowane w teorii niezawodności konstrukcji budowlanych 
Tabela typów rozkładów prawdopodobieństwa

Uwagi:
1) Funkcja Laplace’a (standaryzowana dystrybuanta rozkładu normalnego) $\Phi(x) = \cfrac{1}{\sqrt{2 \pi}} \int \limits _{-\infty}^x e^{\cfrac{ – \xi^2}{2}}d \xi$; odwrotna funkcja Laplace’a .
2) Funkcja gamma , $\Gamma(x+1) = \int \limits_0^{\infty} e^{- \xi} \xi^x d \xi $, gdzie (x+1)> 0  .
3) Funkcja beta  $B( \alpha+1, \beta+1) = \int \limits_0^1  (1-x)^{\beta} dx = \cfrac{\Gamma(\alpha +1 ) \Gamma(\beta +1)}{\Gamma(\alpha +\beta + 2)}$.
4) Stała Eulera C=0, 5772156649…;

Normalny rozkład prawdopodobieństwa – informacje dodatkowe

Na rys. 1 pokazano rozkład normalny zmiennej $X$. Kolorem żółtym oznaczono dystrybuantę dla wartości  $x$ tej zmiennej.  

Elementarz niezawodności konstrukcji. Normalny rozkład prawdopodobieństwa

Rys.1 Normalny rozkład prawdopodobieństwa.- funkcja gęstości $f_X(x)$

W obliczeniach probabilistycznych poziomu drugiego oryginalny rozkład zmiennych stanu $X_i$ skorelowanych o dowolnym rozkładzie transformuje się  do zmiennych nieskorelowanych o normalnym rozkładzie prawdopodobieństwa i parametrach

$$ \begin{equation} {\mathcal N}( \mu_{Xi}, \sigma_{Xi}) \label{1} \end{equation} $$

gdzie $\mu_{Xi}$ i $\sigma _{Xi}$ – odpowiednio wartość oczekiwana (średnia)  i odchylenie standardowe (pierwiastek z wariancji) zmiennej $X_i$.

Dystrybuantę rozkładu normalnego $\mathcal {N}$  ($\ref{6}$) można  wyznaczyć w arkuszu kalkulacyjnym  Excel  za pomocą polecenia:

$$ \begin{equation} F_{\mathcal N} (x)={\small ROZKL.NORMALNY} (x ; \mu_X; \sigma_X; k ) \label{2} \end{equation} $$

gdzie: k jest parametrem o wartości k=1 w przypadku, gdy chcemy wyznaczyć dystrybuantę (rozkład skumulowany)  $\Phi_X $  i o wartości k=0 , gdy wyznaczamy funkcję gęstości (rozkładzie) $f_X$ w punkcie $X=x$.  

W dalszym ciągu będziemy potrzebować zarówno wartości dystrybuanty jak i funkcji gęstości rozkładu, a ponieważ wyznaczenie tych wartości w arkuszu kalkulacyjnym jest współcześnie podstawową umiejętnością, więc do techniki ($\ref{2}$) będziemy często odwoływać się, ale już bez wskazywania na funkcję Excela. Z zależności ($\ref{2}$) wynika, że w celu otrzymania dystrybuanty standaryzowanego rozkładu normalnego $ {\mathcal N }(0,1)$,  tj rozkładu zmiennej losowej o wartości oczekiwanej $\mu=0$ i odchyleniu standardowym  $\sigma=1$ dla wartości $x$ zmiennej $X$ należy użyć polecenia:

$$ \begin{equation} F(0,1)= {\small ROZKL.NORMALNY } (x ; 0 ; 1; 1)  \label{3} \end{equation} $$

W celu otrzymania wartości dystrybuanty dla dowolnego rozkładu normalnego ${ \mathcal N } (\mu,\sigma)$  (o danych  wartościach średniej $\mu$ i odchylenia standardowego $\sigma$ ), wystarczy znajomość rozkładu standaryzowanego ${ \mathcal N } (0,1)$,  ($\ref{3}$)  bowiem

$$ \begin{equation} \text{ jeśli  X  ma rozkład } \mathcal N  (\mu_X, \sigma_X) \to \cfrac {X- \mu_X} {\sigma_X} \text{ ma rozklad standaryzowany }  \mathcal N  (0, 1) \label{4} \end{equation} $$

Wyznaczenie dystrybuanty funkcją arkusza Excel jest wystarczająco dokładne również w zagadnieniach niezawodności budowlanych układów konstrukcyjnych, które charakteryzują się wysoką niezawodnością systemu, ale również elementów i potrzebą wyznaczania dystrybuanty w „ogonach” rozkładu prawdopodobieństwa. Na znaczeniu straciły tablice rozkładu inżynierów budownictwa, potrzebne dla zakresu dużych niezawodności.

Dla tych przypadków, w których należy przeprowadzić indywidualne obliczenia numeryczne bez możliwości wywołania funkcji arkusza Excel, na podstawie pracy [1] w tab. 3 podano numeryczne formuły aproksymacyjne dystrybuanty  standaryzowanego rozkładu normalnego ($\ref{31}$).

Stosowana jest również formuła:

$$ \begin{equation} \Phi(-t) \cong\sqrt {\cfrac {1}{\pi}} e^{-\cfrac{t^2}{2}} \left ( \cfrac {0,3193815} {t_z}-\cfrac{0,3565638} {t_z^2} + \cfrac{1,7814779} {t_z^3} – \cfrac{1,8212560}{t_z^4}+\cfrac{1,33027448} {t_z^5}\right )  \label{5} \end{equation} $$

gdzie zmienna pomocnicza  ${ t_z = 1+0,2316419\cdot t }$.

Tab. 3 Aproksymacje numeryczne wybranych dystrybuant

Aprokymacje numeryczne wybranych dystrybuant

Tab.4  Dystrybuanta normalna Φ(β) dla inżynierów budownictwa

Dystrybuanta normalna dla inżynierów budownictwaPrzykład:  r= pr= Φ(β= 5,18) = 0,968888=0,9999998888.

Tab.5  Odwrotna dystrybuanta normalna dla inżynierów budownictwa. Współczynnik niezawodności β

Odwrotna dystrybuanta noemalna dla inżynieró budownictwa

Przykład    $\beta =\Phi( r = 0,99999996 = 0,9^7 6) = ,36753$

Tab.6 Estymatory otrzymane metodą momentów

Współczynnik niezawodności β wg normy PN-EN 1990

Tab.7 Zależność liczbowa pomiędzy współczynnikiem niezawodności β  a prawdopodobieństwem zniszczenia pf [2]Zalęzność współczynnik niezawodności, prawdopodobieństwo zniszczenia

Tab.6  zaczerpnięta z normy PN-EN-1990 dotycząca podstaw projektowania konstrukcji budowlanych [2] zależność pomiędzy prawdopodobieństwem zniszczenia $p_f$ a indeksem niezawodności $\beta$ podaje tabelarycznie:

Tab. 8 Minimalne współczynniki niezawodności βmin zależnie od konsekwencji zniszczenia konstrukcji RC i projektowanego czasu użytkowania T [2]

Momenty statystyczne funkcji wektorów losowych

Poniżej wprowadzono oznaczenia:
$\mathcal{E}$ – operator wartości oczekiwanej,
indeks górny mieczyk  (†)  – wartość sprzężona wielkości lub funkcji zespolonej. W przypadku macierzy rzeczywistych wartość sprzężona jest macierzą transponowaną – indeks (T).
Formuły na momenty statystyczne funkcji dotyczą zarówno rzeczywistych jak i zespolonych zmiennych skalarnych lub wektorowych.

Poniższe formuły uzupełniają wyrażenia zestawione w tab.1.

Losowe wektory $\mathbf{Y}$ oraz $\mathbf{Z}$ (w ogólnym przypadku zespolone) mają wartość oczekiwaną $ \mu_y =\mathcal E\mathbf{Y} $ i $ \mu_z = \mathcal E\mathbf{Z}$ i obie są  funkcjami  rzeczywistego wektora losowego $\mathbf{X}$ , który ma funkcję gęstości rozkładu prawdopodobieństwa $f_\mathbf{X} (x)$. oraz wartość oczekiwaną \mu_x = \mathcal E \mathbf{X}$

$$ \begin{equation} \mathbf{Y} = \Theta (\mathbf{X})  \quad , \quad \mathbf{Y}= \Psi(X)\ \label{6} \end{equation} $$

Wycentrowane zmienne $\mathbf{X}^0$ i  $\mathbf{Y}^0$, \mathbf{Z}^0:

$$ \begin{equation} \mathbf{X}^0 =  \mathbf{X} –  \mu_x  \quad , \quad  \mathbf{Y}^0 =  \mathbf{Y} –  \mu_y \quad , \quad  \mathbf{Z}^0 =  \mathbf{Z} –  \mu_z \label{7} \end{equation} $$

Wartość oczekiwana funkcji $ \Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$

$$ \begin{equation} \mu _y= \mathcal{E} \mathbf{Y} =  \mathcal{E} \Theta (\mathbf{X}) = \int \limits_{-\infty}^{\infty} \Theta (x) f(x) dx \label{8} \end{equation} $$

Moment drugiego rzędu funkcji $ \Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$

$$ \begin{equation} \Gamma _y= \mathcal{E} \mathbf{Y}\mathbf{Y}^† = \mathcal{E} \Theta(\mathbf{X}) \Theta(\mathbf{X})^† = \int \limits_{-\infty}^\infty \Theta \Theta^† f(x) dx\label{9} \end{equation} $$

Wariancja $\Theta$ ($\ref{6}$) – analogicznie dla funkcji $\Psi$

$$ \begin{equation} Var (\mathbf{Y})  = \mathbf{C}_{yy} =\sigma_y^2 = \mathcal{E} \mathbf{Y}^0\mathbf{Y}^{0†} = \mathcal{E} [ \Theta (\mathbf{X}) – \mu_y] [\Theta(\mathbf{X})^† – \mu_y^†]  \int \limits _ {-\infty}^{\infty}[\Theta (x) – mu_y][\Theta(x)^† – \mu_y^† ] f (x) dx \label {10} \end{equation} $$

Wariancja $Var_x= \sigma^2_x dowolnego wktora $\mathbf{X}jest jego kowariancją z samam sobą  $\mathbf{C}_{xx}$

Wzajemny drugi moment

$$ \begin{equation}\Gamma_{yz} =\mathcal{E} \mathbf{Y}\mathbf{Z}^† = \mathcal{M} \Theta(\mathbf{X}) \Psi^† (\mathbf{X}) = \int \limits_{-\infty}^{\infty} \ \Theta(x)\Psi^†(x) f (x) dx \label {11} \end{equation} $$

Kowariancja wzajemna 

$$ \begin{equation} \mathbf{C}_{yz} =Cov (\mathbf{Y} \mathbf{Z})= \mathbf{C}_{yz}  = \mathcal{E} Y^0 Z^{0†}= \int \limits_{-\infty}^{\infty} [\Theta(x) – \mu_y][\Psi^†(x) – \mu_z^†] f(x)dx \label {12} \end{equation} $$

W przypadku, gdy,  $\Psi(\mathbf{X}) \equiv \mathbf{X}$ – z ($\ref{12}$) uzyskujemy wyrażenie na kowariancję $\mathbf{C}_{xy}$ wektora $\mathbf{X}$ i $\mathbf{Y}$:

$$ \begin{equation} Cov (\mathbf{X} \mathbf{Y})= \mathbf{C}_{xy} =  \mathcal{E} X^0 Y^{0†} = \int \limits_{-\infty}^{\infty} [X – \mu_y] [\Theta^†(x) – \mu_y^†] f(x)dx \label {13} \end{equation} $$

Korelacja 

Współczynnik korelacji zmiennych losowych $\mathbf{X}$ i $\mathbf{Y}$ o wartościach oczekiwanych $\mu_x$ i $\mu_y$ oraz odchyleniach standardowych $\sigma_x$ i $\sigma_y $,  oraz kowariancji zmiennych $C_{xy}$ , jest wartością oczekiwaną iloczynu standaryzowanych zmiennych [1]:

$$ \begin{equation} \rho_{xy}= \rho \{\mathbf{X}, \mathbf{Y}\}= \mathcal{E}  \left \{ \cfrac {X-\mu_x}{\sigma_x} \cdot \cfrac {Y-\mu_y}{\sigma_y} \right\}= \cfrac {C_{xy }} {\sigma_x \cdot \sigma_y} \label{14} \end{equation} $$

Współczynnik korelacji określa siłę sprzężenia zmiennych i przyjmuje wartość w przedziale

$$ \begin{equation} -1 \le \rho_{xy}\le 1 \label{15} \end{equation} $$

Wartość $ \rho_{xy}=0 $ oznacza brak związku (sprzężenia), a dla zmiennych rozłożonych normalnie – niezależność zmiennych. Dla  $ \rho_{xy} = 1 $ sprzężenie jest silnie dodatnie, to znaczy wzrost (lub zmniejszenie) $X$ najczęściej prowadzi do wzrostu (lub zmniejszenia)$Y$. Na odwrót dla  $ \rho_{xy}= – 1 $ relacja jest odwrotnie proporcjonalna.

Regresja

Współczynnik korelacji ($\ref{40}$) został zdefiniowany jako miara zależności liniowej i następnie został uogólniony na dowolną nieliniową zależność funkcyjną w zagadnieniach dopasowania danych doświadczalnych do formuł analitycznych [3] oraz uogólnionego modelu regresji [4] , [5] .
): W modelu regresji współczynnik determinacji $R^2$ określa, jaki procent zmienności zmiennej zależnej jest wyjaśniany przez zmienność zmiennej niezależnej

W definicji statystycznej współczynnik determinacji regresji $R^2$ jest kwadratem korelacji między wartościami obserwowanymi $\mathbf{Y}$ i dopasowanymi $ \check {\mathbf {Y}}$, liczonym zgodnie z zależnością ($\ref{40}$)

$$ \begin{equation} R^2 =  \rho^2( Y, \check{Y}) \label {16}\end{equation} $$

Uwaga:
Do obliczenia wartości oczekiwanej oraz kowariancji nieliniowej funkcji losowego wektora wystarczy znajomość tylko gęstości rozkładów brzegowych prawdopodobieństwa argumentu funkcji $\mathbf{X}$ funkcji.

Współczynnik niezawodności β wg normy PN-EN 1990

Miarą prawdopobieństwa zniszcczenia  konstrukcji $p_f$ jest wg normy PN-EN-1990 [2] jest współczynnik niezawodności $\beta$ związany zprowdopdobieństwm zniszczenia  $p_f$ \Phi (-\beta)

$$ \begin{equation} p_f \stackrel {def}{=} \Phi(-\beta)  \label{57} \end{equation} $$

gdzie; $\Phi()$ jest standaryzowaną dystrybuantą normalnego rozkładu prawdopodobieństwa.

Współczynnik niezawoedności jest kwantylem standaruyzowanego rozkłądu normalnego $\mathcal N (0,1)$ rzędu $p_f$

Tabelaryczne przedstawienie funkcji ($\ref{57}$)  pokazano w tab. 6.

Prostą interpretację współczynnika niezawodności uzyskuje się, dla funkcji granicznej  g()=0 przedstawionej w postaci ($\ref{20}$), zależnej od dwóch zmiennych losowych: wytrzymałości $R$ i obciążeń $E$  zapisanej w postaci ($\ref{20}$), kryterium niezawodności można zapisać następująco

$$ \begin{equation} \beta =\cfrac{\mu_g}{\sigma_g}= \cfrac{\mu_R -\mu_E}{\sqrt{\sigma_R^2 +\sigma_E^2}}\ge \beta_{min} \label{18} \end{equation} $$

gdzie: $\beta_{min}$ wg tab 7.

W zależności od planowanej trwałości przewiduje się pięć kategorii budynków: 1. tymczasowe (przykłady:  biura sprzedaży, tymczasowe budynki wystawowe) ; 2  o krótkim okresie użytkowania  $10 < T  \le 25 \, lat$ (przykłady: konstrukcje tymczasowe i budynki gospodarcze); 3  o średnim okresie użytkowania $25 <  T \le 50 \, lat$ (przykłady: większość budynków przemysłowych, parkingi); 4  o zwykłym okresie użytkowania $25 <  T \le 50 \, lat$ (przykłady: typowe konstrukcje budowlane, takie jak budynki mieszkalne i biurowe projektowane z tradycyjnych materiałów); 5 – o długim okresie użytkowania $ 50 <  T \le 100 \, lat$ (przykłady: konstrukcje zabytkowe lub inne konstrukcje oJ szczególnym znaczeniu, dla których przewiduje się dłuższy okres użytkowania, np. podziemne części budynków, mosty).

Kategorie budynków są ściśle powiązane ze współczynnikiem niezawodności poprzez podział na klasy konsekwencji zniszczenia (CC), które określają poziom ryzyka w przypadku awarii lub zniszczenia:
CC1  małe konsekwencje zniszczenia (niskie zagrożenie życia ludzkiego  lub nieznaczne konsekwencje społeczne, ekonomiczne i środowiskowe),
Przykłady: budynki rolnicze, w których ludzie zazwyczaj nie przebywają oraz szklarnie)
CC2 przeciętne  ( przeciętne zagrożenie życia ludzkiego lub znaczne konsekwencje ekonomiczne, społeczne i środowiskowe),
Przykłady: budynki mieszkalne i biurowe oraz budynki użyteczności publicznej, których konsekwencje zniszczenia są przeciętne,
CC3  duże  (wysokie zagrożenie życia ludzkiego lub bardzo duże konsekwencje ekonomiczne, społeczne i środowiskowe)
Przykłady : szpitale, szkoły, obiekty użyteczności publicznej, widownie, budynki użyteczności publicznej, których konsekwencje zniszczenia są wysokie.
Klasy konsekwencji zniszczenia (CC) bezpośrednio wskazują na klasy  niezawodności (RC1 do RC3) dla których podano wymagania niezawodności zestawione w tab. 7.

W tab 7 zielonym tłem wyróżniona wartości dla których ustalane są częściowe współczynniki bezpieczeństwa w normach. Dla pośrednich lub dłuższych  okresów odniesienia wymagane wskaźniki niezawodności praz częściowe współczynniki bezpieczeństwa należy wyznaczyć indywidualnie zgodnie z procedurami pokazanymi w normie [2].

Niezawodność mierzona współczynnikiem niezawodności o wartości

$$ \begin{equation} \beta =  3,8\label{17} \end{equation} $$
jest szczególnie ważna w projektowaniu konstrukcji budowlanych, ponieważ jest to  minimalna wartość niezawodności wymagana od zwykłych konstrukcji budowlanych, dla których  wymagana jest  niezawodność w projektowanym okres użytkowania (okres powrotu obciążeń klimatycznych) T= 50 lat. Oznacza to, że w okresie 50 lat dopuszcza się tylko raz przekroczenie normowego poziomu  obciążeń klimatycznych i innych zmiennych.

Metody szacowania niezawodności konstrukcji oraz przygotowania danych

Tab.9 Porównanie głównych metod szacowania niezawodności konstrukcjiPorównanie metod szacowania niezawodności systemów

Tab.10 Porównanie metod normalizacji losowego wektora  stanu konstrukcjiPorównanie mestod normalizacji wektora stanu konstrukcji

Bezpieczeństwo, a niezawodność konstrukcji

Na rys. 1 pokazano dwuwymiarową przestrzeń losową  losowych zmiennych stanu $X_1$ oraz $X_2$ o wartościach oczekiwanych  $\mu_1$ i $\mu_2$ i odchyleniami standardowymi $\sigma_1$ i $\sigma_2$ odpowiednio z gęstością łącznego rozkładu prawdopodobieństwa oznaczonego elipsoidalnymi warstwicami. Linią grubą naniesiono  granicę $g(X_1,\, X_2) = 0$ pomiędzy obszarem stanów zniszczenia $\Omega_f$,  i obszarem stanów bezpiecznych $\Omega_r$. Symbolem NPP oznaczono „Najbardziej Prawdopodobny Punkt” (zwany często punktem projektowym $\mathbf{x}^*$), stosowany w praktycznych obliczeniach niezawodności konstrukcji budowlanych. Miarą niezawodności  konstrukcji jest indeks niezawodności $\beta$, który wskazuje najmniejszą odległość środka rozkładu od funkcji granicznej g(), Odchylenie standardowe $\sigma$ rozkładu łącznego w przypadku normlanych rozkładów brzegowych zmiennych stanu wynosi $\sigma =\sqrt{\sigma_1^2 +\sigma_2^2}$.

Niezawodność konstrukcji. Przestrzeń dwóch zmiennych losowych

Rys. 1 Dwuwymiarowa przestrzeń probabilistyczna. Najbardziej prawdopodobny punkt (NPP)

Bezpieczeństwo

Bezpieczeństwo i niezawodność są podstawowymi pojęciami projektowania, realizacji i eksploatacji budowli. Powszechnie utożsamia się niezawodność z bezpieczeństwem. Wynika to stąd, że praktycznie nie wystąpi stan w którym konstrukcja jest niezawodna, ale nie jest bezpieczna lub jest bezpieczna, ale nie jest niezawodna. W otoczeniu systemu lub osoby niezawodnej najczęściej czujemy się bezpiecznie. Jedynie w przypadku, gdy system niezawodnie chce wyrządzić krzywdę poczucie bezpieczeństwa znika. Bezpieczeństwo jest postrzeganiem subiektywnym, odczuciem. Niezawodność jest wielkością obiektywną i w zwykłych sytuacjach pociąga za sobą bezpieczeństwo.

Autor uważa, żę subiektywne stany bezpieczeństwa należy wprowadzić w niezawodnościowe kryteria jakości systemu; nadać im status specyficznego stanu granicznego – stanu bezpieczeństwa.
Stan bezpieczeństwa wystąpi obok klasycznego stanu nośności i stanu użytkowalności. Przyjmujemy, że zwiększenie niezawodności systemu, zmniejsza zagrożenie zewnętrzne, więc zwiększa bezpieczeństwo. Odwrotny związek będzie „egzotycznym” wyjątkiem. W normach [6], [7] definiuje się ścisłą zależność między docelowym poziomem niezawodności a konsekwencjami zniszczenia i kosztami zapewnienia bezpieczeństwa.

W podejściu tym niezawodność i bezpieczeństwo są traktowane jako synonimy, co prowadzi do tautologii w naukach technicznych. Istnieją sytuacje, w których zwiększenie bezpieczeństwa może obniżyć niezawodność, jak w przypadku systemu komunikacji, gdzie awaria jednego pojazdu może wstrzymać ruch całego systemu, co ilustruje konflikt między tymi dwoma pojęciami. Jeśli jednak zdefiniujemy niezawodność szerzej, w dłuższym okresie czasu lub dla w większym obszarze, to stwierdzimy, że zwiększenie bezpieczeństwa zawsze działa w kierunku zwiększenia niezawodności i odwrotnie. Systemy są monotoniczne w szerszym aspekcie: zwiększenie niezawodności lub bezpieczeństwa jednego elemntu systemu, zwiększa niezawodność całego systemu.

Bezpieczeństwo w znaczeniu ogólnym oznacza brak zagrożenia życia i zdrowia ludzi oraz strat ekonomicznych, społecznych i ekologicznych w projektowanym czasie użytkowania [8]. Bezpieczeństwo jest stanem wolnym od wypadków lub strat [9]. Bezpieczeństwo jest uwolnieniem się od szkody lub zagrożenia. Stanem bezpiecznym jest stan , w którym nie jest niebezpieczne lub szkodliwie. Miejsce jest bezpieczne jeśli  jest wolne od szkód lub niebezpieczeństw. Urządzenie bezpieczeństwa – urządzenie do zapobiegania obrażeniom lub niebezpieczeństwu [10])

Frei [11] wyróżnia:

  • stan braku bezpieczeństwa – wówczas gdy występuje duże rzeczywiste zagrożenie, a postrzeganie tego zagrożenia jest prawidłowe;
  • stan obsesji występuje wtedy, gdy nieznaczne zagrożenie jest postrzegane jako duże;
  • stan fałszywego bezpieczeństwa ma miejsce wówczas, gdy zagrożenie jest poważne, a postrzegane bywa jako niewielkie;

Stan bezpieczeństwa występuje wtedy, gdy zagrożenie zewnętrzne jest nieznaczne, a jego postrzeganie prawidłowe.

Murzewski (1989) [12] zaproponował rozdziału niezawodności i bezpieczeństwa z wykorzystaniem punktu obliczeniowego (R*,E*)= (R- wytrzymałość, E- obciążenia). Ponieważ jednak punkt oliczeniowy ()*jest punktem „sztucznym” zaproponowanym w pracy [13] w celach czysto numerycznych w przybliżonych procedurach wyznaczania indeksu niezawodności$\beta$ jako wielkość pomocnicza i wtórna, to ten punkt nie powinien służyć do zdefiniowania wielkości podstawowej, a propozycja Murzewskiego nie może być poprawna.

 Bezpieczeństwo objawia się akceptowalnym poziomem ryzyka utraty czegoś dla podmiotu szczególnie cennego – życia, zdrowia, pracy, szacunku, uczuć, dóbr materialnych i dóbr niematerialnych. Jego brak wywołuje niepokój i poczucie zagrożenia. Zagrożenie bezpieczeństwa powinny być przedmiotem działań zmierzających do ich likwidowania [14]. Bezpieczeństwo jest fenomenem psychologicznym, naturalną potrzebą człowieka i charakteryzuje stan psychiczny; jest inaczej postrzegane i definiowane w psychologii klinicznej, psychoanalizie, socjologii. Jest to stan emocji – poczucie bezpieczeństwa najczęściej wiąże się z pozytywnym nastrojem. Jest ważnym pojęciem w nauce pracy oraz w obronności.

Bezpieczeństwo w budownictwie dotyczy przede wszystkim życia i zdrowia pracownika budowlanego, użytkownika (mieszkańca lub pracownika), klienta) , ale także dóbr materialnych (obiektu, zgromadzonego towaru i wyrobów, dobytku, itd.). Przejawem stopnia bezpieczeństwa w obiekcie budowlanym jest katastrofa budowlana,  Przy braku  katastrof budowlanych możemy wnioskować, ze obiekt jest niezawodny (i bezpieczny).
Z definicji katastrofa budowlana to gwałtowne , niezamierzone zniszczenie obiektu budowlanego lub jego części. Nie jest katastrofą uszkodzenie elementu budowlanego nadającego się do naprawy, uszkodzenie lub zniszczenie urządzeń budowlanych jak również awaria instalacji

Statystyka katastrof budowlanych prowadzonych przez Główny Urząd Nadzoru Budowlanego wskazuje, że liczba katastrof w Polsce jest znacznie mniejsza od roku 2008, w którym osiągnięto szczyt (rys.2)

Katastrofy budowlane w Polsce

Rys.2. Katastrofy budowlane w Polsce w latach 1996 do 2024 [15]

W 2024 roku najczęstszą przyczyna katastrof były zdarzenia losowe (82%). a w dalszej kolejności błędy podczas eksploatacji obiektu( (14%) i błędy podczas wznoszenia lub innych robót budowlanych (4%). Błędy podczas opracowania dokumentacji obiektu budowlanego wskazywano tylko w 2%. Katastrofie najczęściej ulegały budynki mieszkalne (39%), a następnie gospodarcze i inwentarskie (37%). Najczęściej ulegały katastrofie konstrukcje murowe (60%), drewniane (12%),a najrzadziej żelbetowe monolityczne (2%). Najczęściej ulegały awarii słupy, a następnie przekrycie.

Niezawodność

Niezawodność w znaczeniu ogólnym jest to zdolność konstrukcji do pełnienia projektowanych funkcji w określonym czasie eksploatacji.

Zarówno konstrukcja, jak i oddziaływania środowiska, ale także kryteria oceny jakości konstrukcji (zdolności do wypełnienia zadanych funkcji), są losowe i mogą być zmienne w czasie. Konsekwencją tego jest to, że miarą niezawodności jest prawdopodobieństwo tego, że konstrukcja nie przekroczy określonych stanów granicznych w założonym okresie eksploatacji. Poziom niezawodności różnych stanów i różnych elementów może być różny. Różne poziomy niezawodności można przyjmować przy obliczaniu stanu nośności konstrukcji, inne, mniejsze w przypadku obliczania stanu użytkowalności. Różnice poziomów niezawodności powinny być brane pod uwagę w przypadku konstrukcji jako całość, natomiast niższe w przypadku poszczególnych elementów składowych ,co jest związane z budową systemu niezwodnościowego i szeregowych, równoległych lub mieszanych połączeń między elementami

W raporcie [16] przyjmuje się definicję, że bezpieczeństwo, to stan wolny od warunków, które mogą spowodować śmierć , uszkodzenie, choroby zawodowe, uszkodzenie lub utratę sprzętu lub mienia, lub szkodę dla środowiska.
Ta definicja spotkała się z dużą krytyką, przy czym największe kontrowersje sprawiało słowo „stan wolny”. Wprowadzano inne definicje, dopuszczające ryzyko  zamiast totalnego uwolnienia. Przyjmowano, że bezpieczeństwo wystąpi na akceptowanym poziomie ryzyka [17], a stąd krok do utożsamienia bezpieczeństwa z niezawodnością definiowaną jako 

$$ \begin{equation} R ( t ) = r = Prob \, \{ t \ge \tau \} \label{19} \end{equation} $$

gdzie:
$R( t )$ – niezawodność jako zmienna czasu $t$,
$t$ – czas pracy bez uszkodzenia,
$ \tau$ – założony (lub wymagany) czas pracy bez uszkodzenia.

Z definicji  Niezawodność (ang reliability) systemów technicznych, w tym konstrukcji budowlanych, to własność obiektu mówiąca o tym, czy pracuje on poprawnie (spełnia wszystkie powierzone mu funkcje i czynności) przez wymagany czas i w określonych warunkach eksploatacji (w danym zespole czynników wymuszających). Miarą niezawodności obiektu jest prawdopodobieństwo wystąpienia zdarzenia opisane definicją ($\ref{1}$).

Definicje podstawowe

Stosować będziemy oznaczenia i definicje zgodnie z normami [6], [2]:

  • Element konstrukcyjny – fizycznie wyróżnialna cześć konstrukcji, np. słup, belka, płyta, pal fundamentowy,
  • Konstrukcja – uporządkowany zespół połączonych ze sobą części, zaprojektowanych w celu przenoszenia obciążeń i zapewnienia odpowiedniej sztywności.
  • Ustrój, system konstrukcyjny – elementy nośne obiektów budowlanych oraz sposób, w jaki te elementy ze sobą współpracują.
  • Zgodność – spełnienie określonych wymagań,
  • Niezawodność – zdolność konstrukcji lub elementu konstrukcyjnego do spełnienia określonych wymagań, łącznie z uwzględnieniem projektowanego okresu użytkowania na który została zaprojektowana. Niezawodność wyraża się zwykle miarami probabilistycznymi. Niezawodność obejmuje nośność, użytkowalność i trwałość konstrukcji,
  • Klasa niezawodności konstrukcji – klasa konstrukcji lub elementów konstrukcyjnych, dla których wymagany jest określony stopień niezawodności,
  • Oddziaływanie $F$  a) zbiór sił przyłożonych do konstrukcji (oddziaływania bezpośrednie), b) zbiór wymuszonych odkształceń lub przyspieszeń, zasadniczo spowodowanych innymi wpływami niż wymienionymi w a)
  • Efekt oddziaływania $E$ , efekt oddziaływań (lub oddziaływania) na element konstrukcji (np. siła wewnętrzna, moment, naprężenie, odkształcenie) lub na całą konstrukcję (np. ugięcie, obrót),
  • $p_f$- prawdopodobieństwo zniszczenia,
  • $p_s$ – prawdopodobieństwo przetrwania,
  • $r =p_s$  –  niezawodność systemu ,
  • $Prob \, \{.\}$ – prawdopodobieństwo,
  • $g$- funkcja stanu granicznego,
  • $\Phi$- funkcja rozkładu prawdopodobieństwa standaryzowanego rozkładu normalnego,
  • $\beta$ – współczynnik niezawodności,
  • $X$ – zmienna losowa,
  • $x$ – realizacja (wartość) zmiennej losowej
  • $f_X$ – funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej X,
  • $f_X(x)$ – wartość funkcji gęstości w punkcie  dla rzędnej  $x$
  • $F_X$ – dystrybuanta  rozkładu prawdopodobieństwa zmiennej losowej X,
  • $\mu_x = \overline X $ – wartość średnia zmiennej losowej X,
  • $\sigma_X$ – odchylenie standardowe zmiennej losowej X,
  • $v_X$ – współczynnik zmienności zmiennej losowej X,
  • $R$ – nośność,
  • $E$ – obciążenie (efekt oddziaływania, np. siła osiowa , moment zginający, bimoment, itd)
  • $X, x$ – zmienna losowa i jej wartość (kwantyl).

Przy oznaczeniach jak wyżej definiuje się pojęcia:

  • równanie stanu granicznego 

$$ \begin{equation} g =  R  – E = 0 \label{20} \end{equation} $$

lub przy zastosowaniu równania  powierzchni granicznej w przestrzeni zmiennych losowych systemu  zestawionych w wektor $\mathbf{X}$,

$$ \begin{equation} g ( \mathbf{X})  = 0 \label{21} \end{equation} $$

gdzie  $\mathbf{X}$ wektor losowy o rozmiarze (1×n) , złożony z losowych zmiennych stanu systemu

$$ \begin{equation} \mathbf{X} = [ X_1, \, X_2, \,\,  … , \, X_i , \,   … , \, X_n]^T_{(1×n)}  \label{22} \end{equation} $$

  • prawdopodobieństwo zniszczenia  

$$ \begin{equation} p_f = Prob \, \{g \le 0 \} \label{23} \end{equation} $$

  • prawdopodobieństwo przeżycia (sukcesu), niezawodność 

$$ \begin{equation} r = p_s = 1 – p_f  = Prob \, \{g  > 0 \} \label{24} \end{equation} $$

  • współczynnik niezawodności  $\beta$,

$$ \begin{equation} \beta = \cfrac {\mu_g} {\sigma_g} \label{25} \end{equation} $$

gdzie:
$\mu_g$ i $\sigma_g$ są  wartością oczekiwaną oraz odchyleniem standardowym zmiennej (${20}$) lub (${21}$)

Dla innych rozkładów $g$ niż normalny  $\beta$ jest tylko umowną miarą niezawodności.

  • metoda probabilistyczna – oznacza, że metodę analizy konstrukcji, taką, że jest tak zaprojektowana , aby prawdopodobieństwo zniszczenia $p_f$ nie przekroczyło granicznej wartości  $p_{f,lim}$ w określonym okresie czasu:

$$ \begin{equation} p_f  < p_{f,lim} \label{26} \end{equation} $$

lub jej niezawodność  $r$ będzie nie mniejsza od wymaganej  $r_{min}$

$$ \begin{equation} r =p_s= 1-p_f  \ge r_{min} \label{27} \end{equation} $$

Niezawodność systemu i elementu

System  elementów

W  kategoriach  obszarów stanów pożądanych $\Omega_r$ lub niepożądanych  $\Omega_f$  niezawodność systemu $r$ ($\ref{24})$  i elementu $r_i$ można zdefiniować jak następuje:

  • zawodność – jest związana z przejściem stanu granicznego od stanu pożądanego do stanu niepożądanego z obszaru $\Omega_f$.
  • niezawodność  jest  przeciwieństwem zawodności, czyli utrzymaniem się  systemu lub elementu w  stanach pożądanych z obszaru $\Omega_r$, to znaczy jest zdarzeniem, polegające na tym , system pracuje bez uszkodzenia,
  • obszar stanów  pożądanych (bezpiecznych ) 

$$ \begin{equation} \Omega_r  : g ( \mathbf{X} > 0) \label{28} \end{equation} $$

  • obszar stanów  niepożądanych (niebezpiecznych) 

$$ \begin{equation} \Omega_f  :  g( \mathbf{X} \le  0)   \label{29} \end{equation} $$

niezawodność ($\ref{24}$)  przy wykorzystaniu definicji obszaru stanów bezpiecznych można zapisać w postaci:

$$ \begin{equation} r = Prob \, \{ \mathbf{x}\in \Omega_r \} = \int \limits_{\Omega_r} f_X (\mathbf{x}) dx \label{30} \end{equation} $$

prawdopodobieństwo awarii ($\ref{23}$)

$$ \begin{equation} p_f = 1 – r = Prob \, \{ \mathbf{x} \in \Omega_f \} = \int \limits_{\Omega_f} f_X ( \mathbf{x}) dx \label{31} \end{equation} $$

Element – składowa systemu

zdarzenie zniszczenia elementu „i”              $ \Omega_{f, i} = \overline \Omega _i $

zdarzenie niezawodności elementu „i”        $ \Omega_{r, i} = \Omega _i $

prawdopodobieństwo zniszczenia (awaryjności, zawodności, usterkowości, uszkodzenia ) i-tego elementu

$$ \begin{equation} p_{f, i}  = Prob \, \{ g_i <\le 0\} = Prob \, \{ \overline \Omega_i \} = 1-p_{s,i} =1- r_i  \label{32} \end{equation}$$

prawdopodobieństwo niezawodności (krótko nazywane niezawodnością) i-tego elementu

$$ \begin{equation} r_i = p_{s, i}  = Prob \, \{ g_i > 0\} = Prob \, \{ \Omega_i \} = 1 – p_{f,i} \label{33} \end{equation}$$

Niezawodność mierzona współczynnikiem niezawodności  β

Niezawodność może być mierzona współczynnikiem niezawodności $\beta$ ($\ref{24}$), który jest  po prostu odmierzany w innej skali i jest wprost przeliczalny z prawdopodobieństwa zniszczenia lub niezawodności:

$$ \begin{equation} \beta = \Phi^{-1} (p_f) \label{34} \end{equation} $$

w tab.1. podano  numeryczną zależność pomiędzy $\beta$ i $p_f$ w przypadku rozkładu normalnego.

Z probabilistycznego punktu widzenia można przyjąć, że element „i” ma jedną określoną postać niespełnienia niezawodności.

Ustrój, czyli zbiór elementów może mieć więcej niż jedną postać, ale też może także składać się z dwóch lub więcej elementów, charakteryzujących się jedną postacią niespełnienia.

Podstawowe struktury niezawodnościowe

W rozdziale omówiono podstawowe struktury (systemy) z punktu widzenia niezawodności: systemy szeregowe i równoległe. Systemy szeregowe (łańcuchy) są modelem konstrukcji statycznie wyznaczalnych. Systemy równoległe (wiązki) są modelem konstrukcji statycznie niewyznaczalnych. Artykuł zilustrowano przykładami podstawowych struktur i opatrzono wnioskami ważnymi dla Konstruktora i Architekta obiektów budowlanych.

Na rys. 4 pokazano schematy blokowe podstawowych struktur niezawodnościowych: szeregowych i równoległych. Przykładem struktury szeregowej jest statycznie wyznaczalna konstrukcja (kratownica, rama, płyta , itd) . Przykładem struktury równoległej jest konstrukcja statycznie niewyznaczalna. Zarówna system szeregowy jak i równoległy (lub systemy mieszane szeregowo-równoległe) są modelami tradycyjnych  systemów konstrukcyjnych, z elementami wbudowanymi na stałe (obciążonymi).

Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych. 

Elementarz niezawodności konstrukcji. Podstawowe modele niezawodnościowe

Rys. 4 Podstawowe modele niezawodnościowe: a) szeregowy, b) równoległy czyli rezerwy obciążonej , c) rezerwy nieobciążonej [18]

 Analizujemy systemy, w których uszkodzenia elementów $\overline \Omega_i$ są zdarzeniami wzajemnie niezależnymi. Niezależnymi są więc również zdarzenia dopełniające $\Omega_i$.

Szeregowa struktura niezawodnościowa. Statystyczny efekt skali (osłabienia)

W systemie (strukturze, układzie, modelu, schemacie ) szeregowym cały system pracuje, jeśli wszystkie elementy pracują, to znaczy system szeregowy ulega awarii, jeśli choć jeden z elementów ulegnie awarii.

Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych. 

W tym przypadku przy liczbie elementów $n$:

$$ \begin{equation} p_s=Prob \,\{ \Omega_1 \cup \Omega_2 \cup … \cup\Omega_n\}\label{35} \end{equation} $$

i w ślad za przyjętym założeniem o niezależności uszkodzeń elementów 

$$ \begin{equation} p_s=Prob \, \{ \Omega_1 \} \cdot Prob \, \{ \Omega_2 \} \cdot … \cdot Prob \, \{ \Omega_n \}\label{36} \end{equation} $$

czyli 

$$ \begin{equation} p_s= \prod \limits_{i=1}^n p_{s_i}\label{37} \end{equation} $$

Formuła ($\ref{37}$) jest zasadą mnożenia niezawodności (prawdopodobieństw bezawaryjnej pracy) elementów systemu szeregowego. Wyraża ona również tak zwany

Statystyczny efekt skali: „im więcej elementów zawiera system szeregowy, tym mniejsza jest jego niezawodność”

W celu  doświadczalnego potwierdzenia zasady ($\ref{36}$)  wystarczy przeprowadzić doświadczenie z nitką (długą liną w konstrukcjach budowlanych).

W celu urwania nitki rozwijamy ją ze szpuli i łatwo zrywamy, ale jeśli nie można jej rozwinąć  i nitka jest krótka, to trudno ją zerwać i należy użyć nożyczek lub zębów do przecięcia nitki.

Z zależności  ($\ref{37}$) wynika, że nigdy niezawodność systemu szeregowego nie jest większa od niezawodności najsłabszego elementu (ogniwa). W takim  razie dla systemu szeregowego mamy:

$$ \begin{equation}p_s \le \min \limits_i p_{s_i} \label{38} \end{equation} $$

Jeśli oznaczymy przez  $p_{f_i}$ prawdopodobieństwo zniszczenia  i-tego elementu, to  ($\ref{38}$) możemy zapisać w postaci:

$$ \begin{equation} p_s= \prod \limits_{i=1} \limits^n (1-p_{f_i})\label{39} \end{equation} $$

Rozkładając wielomian, będący wynikiem iloczynu ($\ref{39}$) w szereg Newtona i odrzucając wyrazy rzędu wyższego niż liniowy (które są istotnie mniejsze o członów liniowych, bowiem bardzo małe są prawdopodobieństwa zniszczenia poszczególnych elementów budowlanych), otrzymamy oszacowanie

$$ \begin{equation} p_s \cong 1- \sum \limits_{i=1} \limits^n p_{f_i}  \label{40} \end{equation} $$

Na rys. 5 pokazano zależność niezawodności systemu szeregowego $p_s$ od liczby n elementów o takiej samej niezawodności elementów $p_{si}=0,95 ; 0,98$  lub $0,99$.

Spadek niezawodności systemu wraz ze zwiększaniem się liczby elementów jest bardzo szybki, a zwiększanie niezawodności pojedynczych elementów  wpływa stosunkowo mniej na zwiększenie niezawodności systemu.

Elementarz niezawodności konstrukcji. Niezawodność systemu szeregowego

Rys.5. Niezawodność systemu szeregowego $p_s$ w funkcji liczby elementów $n$ [18]

Statystyczny efekt skali obserwowany jest zarówno w prętach, jak i w ustrojach powierzchniowych (powłoki, płyty, ściany), a także w ustrojach trójwymiarowych (bryłach). Systematycznie obserwuje się, że konstrukcja o większych rozmiarach (większej liczbie elementów skończonych) jest słabsza od konstrukcji z mniejszą liczba elementów.

Zwiększenie niezawodności systemu szeregowego najlepiej przeprowadzić, realizując strategię:

  1. wyszukać najsłabszy element w systemie i zwiększyć jego nośność, więc również niezawodność
  2. sprawdzić nośność systemu i w przypadku niezadawalającego wyniku, przeprowadzić pkt 1 dla kolejnego elementu
  3. po każdym kroku starać się zmniejszyć liczbę elementów połączonych szeregowo.

W opisanej strategii uwzględniono dwa ważne wnioski z przeprowadzonych analiz:

1) o nośności i niezawodności systemu szeregowego decyduje najsłabszy element (najsłabsze ogniowo),

2) niezawodność systemu szeregowego gwałtownie spada wraz z e zwiększającą się liczbą elementów połączonych szeregowo.

3) niezawodność systemu szeregowego zależy nie tylko od liczby elementów (ogniw) składowych, ale także od poziomu ich niezawodności.

Równoległa struktura niezawodnościowa. Statystyczny efekt wzmocnienia

System z elementami połączonymi równolegle (rys.4b) nie ulegnie zniszczeniu, dopóki nie zniszczą się wszystkie elementy systemu o liczebności $m$Niezawodność $p_s$ systemu  równoległego wyznaczymy  z zależności:

$$ \begin{equation} p_s = Prob \, \{ \overline \Omega_1 \cap \overline \Omega_2 \cap … \cap \overline \Omega_m \cap \} \label{41} \end{equation} $$

gdzie $\Omega_i$ oraz $\overline \Omega_i$ – są wzajemnie dopełniającymi zdarzeniami – zdarzenie oznaczone nadkreśleniem  oznacza zdarzenie przeciwne i w tym przypadku zniszczenie elementu.
Jeśli zdarzenia $\Omega_i$ są wzajemnie niezależne, to również $ \overline \Omega_i $ są wzajemnie niezależne, a jeśli tak, to zachodzi:

$$ \begin{equation} p_s = 1-p_f=1-\prod \limits_{i=1} \limits ^m (1-p_{si}) \label{42} \end{equation} $$

Takie połączenie równoległe (elementów obciążonych – wbudowanych na stałe) jest typowe dla tradycyjnych konstrukcji budowlanych.

Na rys.6 pokazano  zależność niezawodności $p_s$ systemu równoległego od liczby $m$ elementów w wiązce  o takiej samej niezawodności każdego elementu $p_{si}$. Obserwujemy zwiększanie się niezawodności systemu równoległego wraz ze zwiększaniem się liczby elementów w wiązce.

Przy dużych niezawodnościach elementów ( z takimi mamy do czynienia w budownictwie) przyrost niezawodności systemu równoległego jest wolny dla liczby elementów większych od 3-ch., a przy podłączeniu czwartego elementu praktycznie nie obserwujemy zwiększenia niezawodności systemu.

Niezawodność systemu równoległego

Rys.6. Niezawodność systemu równoległego $p_s$w funkcji niezawodności elementów $p_{si}$. Krzywe dla różnej liczby elementów $m$ [18]

Własności  systemu równoległego powodują,  że zwykle rozumie się go jako sposób zwiększenia niezawodności systemu poprzez zwiększenie liczby elementów połączonych równolegle.  Jednakże taka cecha struktury nie zawsze skutecznie prowadzi do celu.  Zwiększanie liczby elementów równoległych powyżej czterech okazuje się narzędziem mniej skutecznym i w istocie  niezbyt wygodnym w stosunku do prostej wymiany jednego elementu na element o większej niezawodności.

Tym niemniej należy zauważyć, że w systemie równoległym następuje statystyczny efekt zwiększenia niezawodności systemu wraz ze zwiększającą się liczbą elementów składowych. Obserwujemy więc zjawisko przeciwne niż w systemach szeregowych.

Wynika stąd ważny wniosek dla Konstruktora konstrukcji budowlanych:  

Połączenia szeregowe elementów konstrukcji (statycznie wyznaczalnych) prowadzą do istotnego zmniejszania niezawodności, natomiast połączenia równoległe elementów konstrukcji (statycznie niewyznaczalnych) prowadzą do niewielkiego zwiększenia niezawodności systemu,  wraz ze zwiększaniem się liczby elementów.

Złożone struktury niezawodnościowe

Złożone modele

W budowlanej praktyce inżynierskiej mamy najczęściej do czynienia ze złożonymi strukturami niezawodnościowymi, polegającymi na połączeniu w szereg struktur równoległych lub równoległym połączeniu łańcuchów lub też innych struktur i na dodatek  z elementami wspólnymi w różnych strukturach.

Na rys. 7 pokazano model struktury z podzielonym rezerwowaniem, czyli strukturę w której systemy równoległe połączono w szereg.

Struktura z podzielonym rezerwowaniem

Rys. 7  Struktura z podzielonym rezerwowaniem (równoległe w szeregu) [18]

Przykładem takiej struktury jest konstrukcja z powielonymi układami statycznie niewyznaczalnymi. W tym przypadku prawdopodobieństwo bezawaryjnej pracy mxn elementów,  każdy o niezawodności $p_{si}$ można obliczyć z zależności

$$ \begin{equation} p_{s, podzielone} = [1-(1-p_{si})^m]^n \label{43} \end{equation} $$

gdzie m jest liczbą elementów w każdej strukturze równoległej, a n liczbą ogniw w łańcuchu. 

Na rys. 8 przedstawiono wykresy uzyskane z zależności ($\ref{43}$).

 Podzielone rezerwowanie

Rys.8. Podzielone rezerwowanie [18]: $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$,  linie ciągłe dla $p_{si}=0,7$

Na rys. 9 pokazano model struktury z ogólnym rezerwowaniem, czyli ze strukturami szeregowymi, połączonymi równolegle.

Struktura z ogólnym rezerwowaniem

Rys. 9 Struktura z ogólnym rezerwowaniem (równoległe w szeregu) [18]

W tym, przypadku niezawodność struktury można obliczyć z zależności

$$ \begin{equation} p_{s, ogolne} =1-(1-p_{si}^n)^m \label{44} \end{equation} $$

Na rys.10 przedstawiono zależności uzyskane z formuły ($\ref{44}$).

Ogólne rezerwowanie 

Rys.10. Ogólne rezerwowanie [18] : $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$,  linie ciągłe dla $p_{si}=0,7$

Zależności ($\ref{43}$), ($\ref{44}$) można uogólnić na przypadek, gdy struktury mają inną liczbę elementów $m$ i $n$ w sposób pokazany w pracy [18] .

Dla przypadków bardziej ogólnych połączeń zaleca się [18] rozpatrywać iteracyjnie, analizując możliwe kombinacje połączeń. 

Wykresy rys. 6 i 8 pokazują , że na niezawodność systemu najbardziej wpływa liczba elementów połączonych szeregowo. Wpływ liczby połączeń równoległych jest istotny przy niewielkiej liczbie połączeń i dla $m>4$ jest praktycznie nieistotny. Wpływ liczby elementów i połączeń zmniejsza się jeśli niezawodność poszczególnych elementów jest duża, co jest charakterystyczne dla konstrukcji budowlanych. Wprowadzenie rezerwowych elementów daje lepsze efekty od wprowadzenia rezerwowych układów. 

Wynika stąd, że konieczne jest rozpatrywanie  struktury w całości. Projektowanie konstrukcji element po elemencie bez analizy połączeń  niezawodnościowych może prowadzić do istotnego niedowymiarowania konstrukcji i wywołania katastrofy budowlanej, czego przykłady dostarczane nam są dość często.

Niezawodność konstrukcji należy rozpatrywać we wczesnym stadium projektowania, wówczas gdy wniesienie zmian nie powoduje znacznych strat, co będzie najbardziej znaczące na etapie eksploatacji.

Korelacja konstrukcyjna

Korelacji funkcyjna jest mierzona współczynnikiem korelacji ($\ref{40}$). Konstrukcyjny współczynnik korelacji będziemy szacować analogicznie, z zależności uzyskiwanych na teoretycznym modelu konstrukcji ( zależności teorii sprężystości lub mechaniki ), albo też w wyniku nadań numerycznych na modelu MES, bądż z modelu poddanego badaniom eksperymentalnym.

Statyczna liniowość nie oznacza liniowości probabilistycznej bowiem konstrukcja zwiera wiele zmiennych losowych  o różnych rozkładach i powiązanych nieliniowo. Ponadto konstrukcje rzeczywiste są obarczone szeregiem imperfekcji geometrycznych (imperfekcje systemowe, czyli odchylenia węzłów od położenia nominalnego i imperfekcje lokalne, czyli wstępne wygięcia i skręcenia nominalnie prostych elementów prętowych i płytowych lub odchylenia od powierzchni nominalnej powłok, a także inne.

Momenty statystyczne (wartości oczekiwane, odchylenia standardowe oraz kowariancje i korelacje) losowych  zmiennych wyjściowych  (przemieszczenia, siły przekrojowe lub mnożnik nośności) konstrukcji rzeczywistych najczęściej wyznaczane są numerycznie. Natomiast charakterystyki statystyczne i typy rozkładów zmiennych wejściowych ( materiałów, geometrii systemu i elementów, obciążeń) uzyskuje się z pomiarów bezpośrednich.

Oszacowania niezawodności dla struktur złożonych

Ścisłe wyznaczenie niezawodności mieszanych (złożonych ) struktur z punktu widzenia niezawodności jest trudne nawet z wykorzystaniem komputera i w praktyce nie jest konieczne. Zamiast dokonywania rachunków na iloczynach splotowych dystrybuant, korzysta się z oszacowań górnego i dolnego prawdopodobieństwa zniszczenia lub niezawodności. W artykule przedstawiono klasyczne oszacowania, przydatne w obliczeniach ręcznych, oraz oszacowania dokładniejsze, możliwe w obliczeniach numerycznych, wymagające znajomości łącznego rozkładu statystycznego zniszczenia elementów systemu lub przynajmniej informacji o rozkładach  brzegowych oraz o jak największej liczbie parametrów tych rozkładów i korelacji między rozkładami.

Ścieżki i cięcia (przekroje) struktury

Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne są oszacowania górne i dolne prawdopodobieństwa zniszczenia.

Mechanizm zniszczenia struktury polega na zniszczeniu tylu elementów w strukturze, by cała struktura uległa zniszczeniu. W pracy [19] wprowadzono następujące definicje:

Ścieżka  (ścieżka zdatności) systemu, jest takim podzbiorem elementów systemu, że przy zdatności wszystkich elementów należących do tego zbioru, system jest w stanie zdatności. Ścieżkę nazywamy minimalną, gdy nie zawiera żadnej innej ścieżki jako podzbioru. Ścieżkę nazywa się krytyczną ze względu na element, gdy utrata zdatności przez ten element powoduje utratę zdatności przez system. Każda minimalna ścieżka jest krytyczna ze względu na dowolny swój element.
Struktura szeregowa jest więc minimalną ścieżką, w którym zniszczenie jednego elementu prowadzi do zniszczenia układu.

Cięcie  (przekrój) systemu, jest takim podzbiorem elementów systemu takim, że niezdatność wszystkich elementów należących do tego zbioru, prowadzi do niezdatności systemu. Cięcie nazywamy minimalnym, gdy nie zwiera jako podzbioru żadnego innego cięcia.
Struktura równoległa jest cięciem systemu.

Na rys. 9 zilustrowano mechanizm struktury szeregowo-równoległej na  rys.11a; minimalne ścieżki na rys.11b, oraz minimalne ciecia na rys 11c

Minimalne cięcia i ścieżki w niezawodności

Rys. 11 Minimalne cięcia b) i minimalne ścieżki c) dla systemu złożonego a) [20],rys.3.17

System z rys. 11a ma następujące ścieżki i cięcia:

  • ścieżki zdatności systemu
    {1,2,3,4}, }{1,2,3}, {1,2,4}, {1,2}, {1,3,4}, z których dwie ostatnie (pogrubione) są ścieżkami minimalnymi, pokazanymi na rys. 9b).
  • cięcia systemu
    {1,2,3,4}, {1,2,3}, {1,2,4}, {2,3,4}, {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {1}, z których trzy ostatnie (pogrubione) są cięciami minimalnymi.

W ogólnym przypadku należy wyznaczyć cięcie (przekrój) struktury takie, że zniszczenie wszystkich elementów z tych zbiorów prowadzi do zniszczenia konstrukcji. Na takim k-tym cięciu  może być uruchomiony mechanizm zniszczenia $M_k$. Zdarzenie polegające na uruchomienia mechanizmu $M_k \ (k=1,…,n)$ oznaczmy przez $Z_k$, a prawdopodobieństwo wystąpienia zdarzenia przez

$$ \begin{equation} { Prob \, \{Z_k\}=p_k \ , (k=1,2,..,n) }\label{45} \end{equation} $$

 Zdarzenie polegające na uruchomieniu dowolnego mechanizmu  i w konsekwencji zniszczenia oznaczymy przez $Z$, a prawdopodobieństwo jego wystąpienia przez

$$ \begin{equation} { Prob \, \{Z\} } =p_f \label{46} \end{equation} $$

Jeśli  n mechanizmów jest możliwych, to zniszczenie struktury nastąpi, jeśli uruchomi się dowolny mechanizm, czyli:

$$ \begin{equation} { p_f\ = Prob \, \{ Z\} = Prob \, \{ Z_1 \cup Z_2 \cup … \cup Z_n \} – Prob \, \{Z_1 \cap Z_2 \} – Prob \, \{Z_1\cap Z_3\} – … + Prob \,\{Z_1\cap Z_2 \cap Z_3\} +… }\label{47} \end{equation} $$

Struktury progowe

Istnieje szereg struktur niezawodnościowych, których nie da się przedstawić za pomocą schematu blokowego, czyli nie jest strukturą szeregowo równoległą lub równoległo szeregową. Takie struktury nazywa się progowymi. Przykład struktury progowej „2 z 3” pokazano na rys. 12, Struktura progowa „2 z 3” oznacza, że system jest w stanie zdatności, gdy spośród trzech jego elementów przynajmniej dwa są w stanie zdatnościc .

Przykłady struktury progowej

Rys.12. Przykład struktury progowej: a) Struktura „2 z 3”, b) minimalne ścieżki, c) minimalne cięcia [20],rys.3.18

W konstrukcjach budowlanych statycznie niewyznaczalnych mamy w ogólności do czynienia z systemami progowymi „k z n”, to znaczy takimi systemami, w których n-elementowy system jest zdatny, jeśli zdatnych jest k elementów, przy czym $1 \le k \le n$. Na rys.13 pokazano przykłady uogólnionych struktur progowych c .

Struktura progowa uogólniona

Rys.13. Struktura progowa uogólniona: a) typowa struktura rezerwy nieobciążonej, b) struktura szeregowa, c) struktura równoległa, d) struktura „k z n” (opis w tekście) [20],rys.3.22

W modelu uogólnionej struktury progowej oprócz parametrów: „n” – liczba elementów struktury, „k”- liczba tych elementów systemu, które muszą być zdatne, jeśli system ma być zdatny, wprowadzamy parametr „m”- liczba elementów czynnych systemu $m \le n$. Pozostałe elementy systemu $n-m$ stanowią rezerwę nieobciążoną. Pokazane na rys. 11 struktury progowe ilustrują przypadki szczególne:$k=m=n$ – struktura szeregowa,

$k=1$, $m=n$ – struktura równoległa,
$m= n < k$ – struktura $k z n$ w węższym sensie,
$k=m=1$, $n>1$ – typowa struktura nieobciążona (rys. 13a),
$k=m ,n$ – struktura szeregowa z wędrującą rezerwą nieobciążoną (rys. 13c),
$k<m<n$ – struktura „k z n”  z wędrującą rezerwą nieobciążoną (rys. 13d).

Proste oszacowania niezawodności struktury

Dla nieskorelowanych zdarzeń $Z_i$ oraz $Z_j$ mielibyśmy prosty związek

$$ \begin{equation} { p_f= p_1+p_2+…+p_n – p_1 \cdot p_2 – p_1 \cdot p_3 -…+ p_1 \cdot p_2 \cdot p_3 + … } \label{48} \end{equation} $$

Niestety w praktyce inżynierskiej mechanizmy są rzadko nieskorelowane, więc potrzebne są  oszacowania górne i dolne prawdopodobieństwa zniszczenia systemu $p_f$, z których najprostsze podał Cornell (1969)  [21] (również Augusti, Baratta (1972) [22] i Barlow , Proschan (1974) [23] i in):

$$ \begin{equation} p_{max}\, (=\max \limits_{i=1} \limits^{n} p_i ) \le p_f \, \le \, \sum \limits_{i=1} \limits^{n} p_i \, (=p_1 + p_2 + … +p_{max} + … \label{49} \end{equation} $$

Bardziej dokładne oszacowania podał Ditlevsen (1979) [24] :

oszacowanie dolne

$$ \begin{equation} p_f \ge p_{max}+\sum \limits_{i=2} \limits^{n} \max \limits_{j<i} \{ \ (\ p_i – \sum \limits_{j=1} \limits^{i-1} p_{ij} ) , \ 0 \} \ge 0\label{50} \end{equation} $$

oszacowanie górne

$$ \begin{equation} p_f \le \sum \limits_{i=1} \limits^{n} p_i – \sum \limits_{i=2} \limits^n \ \max \limits _{j < i}\, p_{ij} \le 1 \label{51} \end{equation} $$

gdzie: $p_{ij}$ jest prawdopodobieństwem jednoczesnego uruchomienia mechanizmu i oraz j.

W celu wyznaczenia $p_{ij}$ należałoby znać dystrybuantę łączną dwuwymiarowego rozkładu marginesów bezpieczeństwa dla zdarzeń $Z_i$ i $Z_j$. Można też posłużyć się kolejnymi oszacowaniami podanymi przez Żukowskiego (2006) [25] :

$$ \begin{equation} p_{ij} \ge \max \{p_i \cdot p_{j|i} , p_j \cdot p_{i|j} \} \text{ , gdy } \rho_{ij}> 0\label{52} \end{equation} $$

$$ \begin{equation} p_{ij} \le  p_i \cdot p_{j|i} + p_j \cdot p_{i|j} \text{ , gdy } \rho_{ij} > 0 \label{53} \end{equation} $$

$$ \begin{equation} p_{ij} \le \min \{p_i \cdot p_{j|i} , p_j \cdot p_{i|j} \} \text{ , gdy } \rho_{ij} <0\label{54} \end{equation} $$

gdzie
$ \rho_{ij}$ – współczynnik korelacji  zmiennych $Z_i$ oraz $Z_j$-  został zdefiniowany w ($\ref{40}$) dla $ (X = Z_i \, ;\, Y=Z_j$

Warunkowe prawdopodobieństwa zniszczenia można oszacować z zależności:

$$ \begin{equation} p_{i|j}=\cfrac{p_j-\rho_{ij}\cdot p_i}{\sqrt{1-\rho_{ij}^2}}\label{55} \end{equation} $$

$$ \begin{equation} p_{j|i}=\cfrac{p_i-\rho_{ij}\cdot p_j}{\sqrt{1-\rho_{ij}^2}}0\label{56} \end{equation} $$

Oszacowania ($\ref{50}$) i ($\ref{51}$) stosuje się w obliczeniach numerycznych. Natomiast w obliczeniach ręcznych pozostajemy przy ($\ref{48}$) i ($\ref{49}$), które w większości przypadków praktycznych dają wystarczające przybliżenie dla wysoko niezawodnych systemów, czyli takich jakie występują w budownictwie, a zawężenie granic ($\ref{50}$) i ($\ref{51}$) stosujemy przy możliwości wiarygodnego oszacowania korelacji mechanizmów zniszczenia i warunkowych prawdopodobieństw awarii ($\ref{55}$) i ($\ref{56}$).

W przypadku posługiwania się wskaźnikiem niezawodności \beta, należy skorzystać z definicji (będącej odwróceniem  ($\ref{34}$)):

Po podstawianiu ($\ref{57}$) do zależności ($\ref{48}$) –  ($\ref{56}$) uzyskamy stosowne zależności dla inżynierskich miar niezawodności.

Z własności dystrybuanty rozkładu normalnego $\Phi()$ (całki błędu lub Gaussa) wynika, że wraz ze zwiększaniem się  wartości bezwzględnej współczynnika niezawodności $|\beta|$ monotonicznie zmniejsza się prawdopodobieństwo awarii $p_f$, czyli można zachować znaki nierówności. Korzystając z własności addytywności operatora dystrybuanty ($\ref(57}$) można na przykład warunkowe wskaźniki niezawodności zapisać w postaci [25] :

$$ \begin{equation} \beta_{i|j}=\cfrac{\beta_j-\rho_{ij}\cdot \beta_i}{\sqrt{1-\rho_{ij}^2}}\label{58} \end{equation} $$

$$ \begin{equation} \beta_{j|i}=\cfrac{\beta_i-\rho_{ij}\cdot \beta_j}{\sqrt{1-\rho_{ij}^2}}\label{59} \end{equation} $$

Elementy stowarzyszone i systemy monotoniczne

Barlow i Proschan (1974) [23] podają kilka ważnych oszacowań dla prawdopodobieństwa zniszczenia $p_f$ systemu złożonego. DO tego celu zdefiniowali zmienne stowarzyszone, czyli takie zmienne losowe $X_1,… X_n$ dla których zachodzi:

$$ \begin{equation} Cov \{ \Theta(X_1,… X_n), \Psi (X_1,… X_n) \}\ \ge 0 \label{60} \end{equation} $$

gdzie $\Theta$  i  $\Psi$  funkcje zmiennych losowych $X_1,… X_n$, stanowiących  dowolne pary niemalejące ze względu na każdy z argumentów tych funkcji. Cov jest symbolem kowariancji.

z warunku ($\ref{60}$} wynika,  że dwie zmienne losowe  $X$ i $Y$ są stowarzyszone, jeśli są dodatnio skorelowane, to znaczy zwiększeniu wartości $X$ na ogół towarzyszy zwiększenie wartości $Y$:

$$ \begin{equation} Cov \{ X,Y\} \ \ge 0 \label{61} \end{equation} $$

Rozpatrujemy sytuacje, w których każda ze zmiennych $X_1,… X_n$ jest binarna, tzn przyjmuje wartość [1 = element struktury jest sprawny ; 0=element uszkodzony]. Wówczas do spełnienia warunku  ($\ref{61}$) wystarcza, by funkcje $\Theta$ i  $\Psi$ były binarne.  W przypadku dwóch zmiennych binarnych to kryterium $\ref{61}$) redukuje się do prostego warunku:

$$ \begin{equation}Prob ( X=1\, , \, Y=1) \ge Prob (X=1) \cdot Prob (Y=1) \label{62} \end{equation} $$

Innymi słowy — zdarzenia „X=1”  i „Y=1” występują razem częściej niż gdyby zmienne były niezależne”

Systemy spełniające warunek ($\ref{61}$) dla awarii dowolnych dwóch elementów lub ich zbioru (mechanizmu zniszczenia) nazywa się systemami monotonicznymi, to znaczy takimi, w których zwiększenie niezawodności jednego elementu powoduje zwiększenie niezawodności mechanizmu, w którym on uczestniczy, a w wyniku zwiększenie niezawodności całego systemu. To samo dotyczy zmniejszenia niezawodności. Z oszacowań podanych w rozdziale, wynika, że również zwiększanie korelacji pomiędzy elementami zwiększa niezawodność mechanizmu i całego systemu.

Dość oczywiste jest, że w konstrukcjach budowlanych elementy krytyczne (przekroje bądź elementy konstrukcyjne) są stowarzyszone, choć niekoniecznie muszą być losowo niezależne. Przykładem może być rama sprężysto-plastyczna, w której mogą być uruchomione mechanizmy plastyczne na skutek utworzenia się wymaganej liczby przegubów plastycznych, albo sprzężone systemy przekryć obiektów wskutek połączenia stężeniami konstrukcyjnymi.

Rozpatrujemy takie systemy, w których monotoniczne jest bezpieczeństwo i niezawodność.

Oszacowania niezawodności Barlow-Proschan

Oszacowania niezawodności systemu podane przez Barlow i Proschan (1974) są oszacowaniami zależnymi od ilości posiadanych informacji. Ulepszanie oszacowań niezawodności systemu następuje wraz ze zwiększaniem się informacji o zachowaniu poszczególnych elementów systemu i o powiązaniach miedzy elementami.

Pełną informację zawiera łączna funkcja gęstości rozkładu prawdopodobieństwa zmiennych podstawowych s systemu. Takiej informacji na próżno oczekiwać. Najczęściej nie mamy wystarczających informacji statystycznych, by estymować (szacować) parametry rozkładów nawet na bardzo niewielkim poziomie wiarygodności. Posiadane, wiarygodne informacje pozwalają oszacować zwykle tylko kilka parametrów i to niektórych tylko rozkładów brzegowych. O niektóre parametrach wnioskujemy z natury zagadnienia, na przykład z centralnego twierdzenia granicznego oraz natury cech (np. nieujemności fizycznych wielkości, sprawczych wartości ekstremalnych , itd.).
Istnieją trzy typy oszacowań niezawodności zależne od posiadanych informacji o: 1) ścieżkach i cięciach systemu, 2) stowarzyszeniu , niezależności lub  dowolnej korelacji elementów. dla poszczególnych sytuacji mamy oszacowania [26] prawdopodobieństwa niezawodności $r$:

A  nie są znane ścieżki minimalne  i cięcia minimalne

  • dla elementów stowarzyszonych

$$ \begin{equation}\underset {i =1} {\stackrel {n} {\sqcap}} \, r_i \le r_s \le \, \underset {i =1} {\stackrel {n} {\sqcup}} \, r_i \label {63} \end{equation} $$

B  znane są ścieżki minimalne S (1,…s)  i cięcia minimalne C (1,.. c)

  • dla elementów dowolnych

$$ \begin{equation}\max \limits _{ 1 \le j \le s} \{Pr( \min \limits _{i \in S_j} (Z_i>0) \} \le r_s \le \min \limits_{ 1 \le j \le c} \{ Pr( \max \limits _{i \in C_j} (Z_i>0) \} \label{64} \end{equation} $$

  • dla elementów stowarzyszonych

$$ \begin{equation}\max \limits _{ 1 \le j \le s} \, \underset {{i \in S_j}} {\sqcap} \, r_i \le r_s \le \min \limits_{ 1 \le j \le c} \, \underset {{i \in C_j}} {\sqcup} \, r_i \label{65} \end{equation} $$

W ($\ref{63}$) do ($\ref{65}$) wprowadzono następujące  oznaczenie prawdopodobieństwa niezawodności:
$ r= 1-p_f$,
$r_s$ dla systemu,
$r_i$ dla elementu (zdarzenia)

Informacja lub założenie o tym, że elementy struktury systemu są stowarzyszone pozwala istotnie polepszyć oszacowania ($\ref{50}$) lub ($\ref{64}$). To samo dotyczy informacji o minimalnych cięciach lub ścieżkach.

Projektowanie probabilistyczne  konstrukcji budowlanych

Projektowanie konstrukcji, a dobór elementów

Projektowanie konstrukcji to  w istocie dobór elementów systemu dla z góry zadanej niezawodności $\beta$  lub $p_r$ (lub prawdopodobieństwa awarii $p_f=1-p_s $) całego systemu. Tylko wówczas, gdy system składa się z jednego elementu, to projektujemy ten element do wymaganego poziomu niezawodności.

Zadanie optymalizacji niezawodności systemu nie jest pierwszorzędne, bo w istocie poziom niezawodności zależny od konsekwencji zniszczenia i innych znormalizowanych czynników jest znany: zarówno przekroczenie , jak i zaniżenie tego poziomu ponad lub obiektywnie uzasadniony poziom (ale jak najmniejszy) poziom – nie jest akceptowane. Oba odstępstwa są uważane za równie ważny błąd. Wyłącznie w przypadku systemów równie materiało -energo- chłonnych, czyli równie kosztochłonnych, wybierzemy ten dla którego niezawodność jest największa, ale nie mniejsza od dopuszczalnej.

W projektowaniu konstrukcji o niezawodności $p_s$, złożonej z n elementów (1,2,…i,..n) z których każdy charakteryzowany niezawodnością $p_{s,i}$  w najprostszym przypadku zamiany (wzmocnienia lub zoptymalizowania – zmniejszenia) tylko jednego elementu korzystamy z następujących zasad [26] :

  • W systemie o strukturze szeregowej przyrost niezawodności systemu jest proporcjonalny do względnego przyrostu niezawodności elementu i nie jest zależny od tego , który element zostaje zastąpiony elementem o wyższej (ew. niższej) niezawodności,

$$ \begin{equation}\Delta p_s = p_s \cfrac{\Delta p_{si}}{p_{si}}, \quad  (i=1,2,…n) \label{66} \end{equation} $$

  • W systemie o strukturze równoległej maksymalną zmianę  niezawodności systemu uzyskujemy przez zmianę niezawodności elementu, który jest najbardziej niezawodny, przy czym

$$ \begin{equation}\Delta p_s=(1-p_s) \cfrac{\Delta p_{si}}{1-p_{si}}, \quad  (i=1,2,…n) \label{67} \end{equation} $$

W tym artykule miary niezawodnościowej istotności elementów zostały wprowadzone dla prostych systemów, dla których analityczny sposób funkcji systemu nie stanowi problemu. Natomiast dla systemów złożonych lub dla przypadków bardziej realistycznych (zależne i naprawialne elementy, realistyczne rozkłady prawdopodobieństwa  stosować należy metody numeryczne lub eksperymentalne. Zarówno metody analityczne jak i numeryczne są oparte na zasadzie wyznaczania minimalnych cięć.

Krótki przegląd zagadnień związanych z istotnością elementu we systemie niezawodnościowym podano w pracy [27].

Specyfika szacowania niezawodności konstrukcji budowlanych

W teorii konstrukcji budowlanych stosuje się trzy poziomy obliczeń dla szacowania niezawodności systemów konstrukcyjnych, z czego dwa pierwsze opierają się na aproksymacyjnych metodach probabilistycznych, uwzględniających złożoność konstrukcji z setkami lub tysiącami elementów, które są opisywane przez skorelowane zmienne losowe. Nawet znajomość łącznego rozkładu tych zmiennych wymagałaby przeprowadzenia miliona realizacji w symulacji Monte Carlo, co jest niezbędne dla zapewnienia wysokiej niezawodności budowli, a zastosowanie dokładniejszych metod na poziomie trzecim jest w praktyce bardzo trudne lub wręcz niemożliwe.

W metodach poziomu 1 probabilistyczną naturę niepewności parametrów materiałów i obciążeń uwzględnia się  poprzez zastosowanie systemu częściowych współczynników obciążenia i wytrzymałości zgodnie z zaleceniami norm Eurokod projektowania konstrukcji metodą stanów granicznych [2] .

Częściowe współczynniki są kalibrowane w systemie LRFD [28][29], [30] przez porównanie z wynikami oszacowań uzyskanymi metodami wyższych poziomów, aby zminimalizować różnice między docelową a rzeczywistą niezawodnością konstrukcji.

W metodach 2. poziomu probabilistyczna natura problemu ujęta jest w operowaniu dwiema statystycznymi miarami wartości niepewności parametrów materiałów i obciążeń – najczęściej wartością średnią zmiennej losowej oraz jej wariancją, uzupełnioną o miarę korelacji pomiędzy wymienionymi parametrami. Metody te obejmują pewien szereg przybliżonych, iteracyjnych procedur obliczeniowych, wykonywanych w celu uzyskania informacji o prawdopodobieństwie awarii konstrukcji. Zazwyczaj wymagają one pewnej kontrolowanej idealizacji obszaru reprezentującego awarię, utożsamianego często z uproszczoną reprezentacją układu rozkładów prawdopodobieństwa zmiennych zestawu obciążeń oraz wytrzymałości materiałów [31].

Metody drugiego poziomu. Odmiany i autorzy

Rys.14 Metody drugiego poziomu. Odmiany i autorzy

Na rys 14 odwołano się do głównych  twórców metody SORM: Breitung (1984) [32], Tvedt (1984) [33], Hohenbichler-Rackwitz(1988) [34], Köylüoǧlu (1994) [35], Cai (1994), [36], Zhao (1999) [37], Mansour (2016) [38], metody SOSPA autorów Hu-Zu (2018) [39],  Park-Lee [40]

 

 

Rozwinięcie funkcji wektorowej g(X) w szereg Taylora

Formuła aproksymacji

Złożoność obliczeń wartości oczekiwanych, dyspersji kowariancji nieliniowych funkcji zmiennych losowych powoduje, że powszechnie stosuje się aproksymację funkcji nieliniowej przez rozwinięcie w szereg Taylora.[41].Punkt aproksymacji $X^*$, czyli punkt w którym do nieliniowej funkcji aproksymowanej prowadzi się styczną należy dobrać tak, by uzyskać jak najlepsze przybliżenie interesującej wielkości. W przypadku obliczania wartości momentów statystycznych punkt $X^* =\mu_X $, ponieważ wokół  tej wielkości zmienne losowa $X$, będzie przyjmowała wartości najczęściej. Natomiast w przypadku szacowania niezawodności punkt aproksymacji to NPP (najbardziej prawdopodobny punkt), który należy wyznaczać iteracyjnie.

Rozważmy zmienną wektorową

$\mathbf{Y}= [ Y_1, \, Y_2, \,\,  \cdots , \, Y_j , \,   \cdots , \, Y_m]^T_{(1×m)} = [Z_j], (j=1, \cdots m)$,

będącą nieliniową funkcją wektorową $\mathbf {g} (\mathbf{X})$ wektora

$\mathbf{X}= [ X_1, \, X_2, \,\,  … , \, X_i , \,   … , \, X_n]^T_{(1×n)} = [X_i], (i = 1, \cdots n)$, ($\ref{22}$).

Funkcja  $\mathbf{g} = [g_1,\, g_2, \, \cdots, \, g_m]^T_{(1×m)}= [g_j], (j=1, \cdots m)$, jest w ogólności nieliniowa, a  w przypadku jednowymiarowym pokazano ją na rys.14. .

Aproksymacja funkcji nieliniowej g(X) linią prostą lub parabolą

Rys.14. Aproksymacja funkcji nieliniowej g(X) linią prostą lub parabolą

Funkcję nieliniową w określonym punkcie NPP o współrzędnych $(X,Y)^*$ można aproksymować prostą funkcją: linią prostą (FORM) , parabolą (SORM)  lub krzywą wyższych rzędów.

W zapisie klasycznym funkcję na j-tą współrzędną wektora $\mathbf{Z}$ można zapisać w postaci $Z_j =g_j (\mathbf{X})$, a rozwinięcie  tej funkcji wokół punktu $\mathbf{X}^*$ w szereg Taylora  w postaci:

$$ \begin{equation}Y_j = g_j (\mathbf{x})\approx  g_j  (\mathbf{X}^*) + \cfrac{1}{1!}\sum \limits_{i=1}^{n} \cfrac{\partial g_j (\mathbf{X})}{\partial X_i }\bigg|_{ \mathbf{X}= \mathbf{X}^*} \cdot (X_i-X_i^*) + \cfrac{1}{2!} \sum \limits_{i=1}^n \sum \limits_{k=1}^n  \cfrac{\partial^2 g_j(\mathbf{X}) }{\partial X_i \partial X_k }\bigg|_{ \mathbf{X}= \mathbf{X}^*} (X_i -X_i^* )\cdot (X_k – X_k^*) +R \label{68} \end{equation} $$

Równanie ($\ref{68}$)  jest wielomianem aproksymacyjnym, w którym reszta R zawiera składniki rzędu wyższego niż drugi. Zapis ($\ref{68}$)  w postaci jawnej podaje człon stały, liniowy i drugiego rzędu paraboli stycznej do funkcji oryginalnej w punkcie $\mathbf{X}^*$. W zapisie macierzowym rozwinięcie ($\ref{68}$) przy pominięciu reszty R można przedstawić w postaci:

$$ \begin{equation} \mathbf{Y} = \mathbf{g}(\mathbf{X}) \approx \mathbf{g}(\mathbf{X}^*) + \partial \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] + 1/2 \cdot [ \mathbf{X}- \mathbf{X}^*] ^T \partial^2  \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] \label{69} \end{equation} $$

gdzie wprowadzono oznaczenia:
$\mathbf{g}(\mathbf{X}^*)$ stały wektor kolumnowy zawierający wartości funkcji  $\mathbf{g}$ w punkcie $\mathbf{X} = \mathbf{X}^*$
$\partial \mathbf{g}(\mathbf{X}^*)$  – macierz wrażliwości pierwszego rzędu, o wymiarze $(m×n)$, w tym samym punkcie.
$\partial^2  \mathbf{g}(\mathbf{X}^*)$ – macierz wrażliwości drugiego rzędu, o wymiarze $ [(m×n)×n]$ .

Macierz  $\partial \mathbf{g}$  jest nazywana macierzą  Jacobiego $ \mathbf{J}_g$, której elementami są: $[J_g\_{ij}$, (i = 1, \cdots, n), ( j=1\cdots , m) są funkcje $[\partial g_j/ \partial X_i]_{(ij)}$:

$$\begin{equation} \mathbf{J}_g =
\begin{bmatrix} \cfrac{\partial g_1}{\partial X_1} & \cdots  & \cfrac{\partial g_1}{\partial X_n} \\
\vdots &  \ddots &\vdots \\ \cfrac{\partial g_m}{\partial X_1} & \cdots  & \cfrac{\partial g_m}{\partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}
\label{70} \end{equation} $$

Pierwszy wiersz  macierzy $\mathbf{J}$ stanowią pochodne pierwszej funkcji $g_1$ po poszczególnych zmiennych $X_1 ,\cdots , X_n$.

Macierz (${70}$)  można przedstawić w postaci wektora kolumnowego, którego współrzędnymi są gradienty  $ \nabla g_i$  funkcji $g_i$ tworzących wektor  $\mathbf{g}$

$$ \begin{equation} \begin{bmatrix}  \nabla g_1 \\ \vdots  \\ \nabla g_m  \end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}\label{71} \end{equation} $$

gdzie:

$$ \begin{equation} \nabla g_i = \begin{bmatrix} \cfrac{\partial g_i}{\partial X_1}, \cdots , \cfrac {\partial g_i}{ \partial X_n} \end{bmatrix} \label{72} \end{equation} $$

Macierz $\partial^2 \mathbf{g}( \mathbf{X}^*)$ jest macierzą wrażliwości drugiego rzędu, ma wymiar $[(n×n)×m]$. Trójwymiarowa macierz jest złożona z pakietu „m” macierzy typu  $\mathbf{H}_{g,j} $   ( j=1 \cdots, m), każda o wymiarze ($nxn$) i  postaci

$$\begin{equation} \mathbf{H}_{g,i} = \begin{bmatrix}
\cfrac{\partial^2  g_i}{ \partial X_1^2} &\cfrac{ \partial ^2  g_i}{\partial X_1 \partial X_2} & \cdots  & \cfrac{\partial^2 g_i}{\partial X_1 \partial X_n} \\
\cfrac{\partial^2  g_i}{ \partial X_2 \partial X_1} &\cfrac{ \partial ^2  g_i}{\partial X_2^2} & \cdots  & \cfrac{\partial^2 g_i}{\partial X_2 \partial X_n} \\
\vdots & \vdots & \cdots  & \ddots & \vdots \\
\cfrac{\partial^2  g_i}{ \partial X_n \partial X_1} &\cfrac{ \partial ^2  g_i}{\partial X_n^2} & \cdots  & \cfrac{\partial^2 g_i}{\partial X_n \partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*} \label{73} \end{equation} $$

Macierze ($\ref{73}$)  są nazywane macierząmi Hessego .

Momenty probabilistyczne funkcji zmiennej losowej z linearyzacji

Wyznaczanie momentów probabilistycznych funkcji losowej poprzez linearyzację nie wymaga iteracji w odróżnieniu od  szacowania niezawodności konstrukcji.
Momenty probabilistyczne (statystyczne) najlepiej szacować  poprzez rozwinięcie  funkcji $\mathbf{Y} =g (\mathbf{X})$ podług formuły ($\ref{68}$) wokół wartości oczekiwanych argumentu $ \mathbf{X =\mu_X}$, a nie  w otoczeniu punktu NPP, co prowadzi fo foemuły:

$$ \begin{equation} \mathbf{Y} \approx g ( \mu_X ) + \cfrac{\partial g(X) }{\partial X }|_{\mu_X}  (X- \mu_X )\label{74}\end{equation} $$

Po zastosowaniu operatora wartości oczekiwanej do  funkcji liniowej ($\ref{74}$) otrzymamy następujące formuły linearyzacji probabilistycznej na wartość oczekiwaną i kowariancję wektora $\mathbf{Y}$ [42]:

$$ \begin{equation} \mu_y \approx g  ( \mu_x ) \label{75}\end{equation} $$

$$ \begin{equation} \mathbf{C}_y \approx g^{’} ( \mu_x ) \,  \mathbf{C}_x  \, g ^{’} ( \mu_x )^† \label{76}\end{equation} $$

gdzie  $\mathbf{C}_x = Cov \mathbf{X}$,  $\mathbf{C}_y = Cov\mathbf{Y}$ są macierzami kowariancji odpowiednio wektora $\mathbf{X}$ i $\mathbf{Y}$.

W przypadku zmiennej skalarnej kowariancja staje się wariancją $ CovX = Var X = \sigma_x^2$.

Dokładność metody linearyzacji zależy od rozproszenia losowego zmiennej wejściowej. Jeśli $ \sigma_x \ll \mu_x$. to dokładność aproksymacji jest dobra i zmniejsza się wraz ze zmniejszaniem się nieliniowości funkcji.

Transformacja dowolnego wektora losowego na wektor o nieskorelowanych współrzędnych

W zadaniach niezawodności konstrukcji, wygodnie operować wektorami losowymi o nieskorelowanych współrzędnych. Zadanie transformacji dowolnego losowego wektora $\mathbf{X}$ na wektor $\mathbf{U}$ o nieskorelowanych współrzędnych, nazywane jest często dekorelacją wektora losowego i sprowadza się do przekształcenia macierzy kowariancji  tego wektora do macierzy diagonalnej  wektora $\mathbf{U}$, co sprowadza się do transformacji macierzy kowariancji  $\mathbf{C}_{xx}$ do macierzy diagonalnej $\mathbf{C}_{uu}$ w przekształceniu:

$$ \begin{equation} \mathbf{C}_{xx} = \mathbf{A} \, \mathbf{C}_{uu}\, \mathbf{A}^† \label{77}\end{equation} $$

Odpowiada to liniowemu przekształceniu

$$ \begin{equation} \mathbf{X} =  \mathbf{A} \mathbf{U} + \mu_{\mathbf{X}} \label{78}\end{equation} $$

z macierzą przekształcenia $\mathbf{A}$. Takie przekształcenie nazywa się kanonicznym rozkładem wektora losowego.

Rozkład kanoniczny wektora losowego można dokonać nieskończenie wieloma sposobami, z których w praktyce stosowane są:

  • poszukiwanie wartości własnych macierzy kowariancji – w tym przypadku macierz przekształcenia jest złożona z wektorów własnych tej macierzy. Ten sposób stosuje się chętnie, ponieważ pakiety standardowych procedur numerycznych zawierają procedury rozwiązywania problemu wartości własnych.
  • inne rozkłady bez wymogu standaryzacji przekształcenia, które co prawda nie są standardowe, lecz prowadzą do istotnie mniej kosztownych algorytmów.

W niezawodności konstrukcji dekorelację wektora zmiennych stanu  $\mathbf{X}$ prowadzi się poprzez : transformację Rosenblatta (1952) [43]),  Hohenbichlera-Rackwitza (1981) [44]); Natafa(1962) [45]);   Liu-Der Kiureghiana(1986) [46],  lub transformacją analityczną Lu i in. (2020) [47]

W tym artykule przedstawimy metodę dekorelacji wektora  $\mathbf{X}$ znaną z podręczników statystyki matematycznej (np. (Pugachev (1984) [42] ) stosujmy prostą metodę  obrotów, która jest iteracyjną metodą kanonicznego rozkładu  wektora losowego. Metoda obrotów daje istotne oszczędności kosztów obliczeń. Koszt obliczeń jest dziesiątki, a w niektórych przypadkach setki razy mniejszy od rozwiązywania zagadnienia własnego.

Macierz kowariancji  $\mathbf{C}_{uu}= diag [k_i ]_{(n×n)}$ wektora $\mathbf{U}$  oraz macierz przekształcenia $\mathbf{A} =  [a_{ij} ]_{(n×n)}$ wyznacza się w algorytmie iteracyjnym [42]:

$$ \begin{equation}  d_k  =  c_{kk} –  \sum \limits _{i=1}^{i=k-1} d_i | a_{ik}|^2 , \quad  (k=1,\cdots , n) \label{79}\end{equation} $$

$$ \begin{equation} a_{kj} =\begin {cases}
0 ,&  \text {dla } (j=1, \cdots , k-1) \\
1 ,&  \text {dla } (j=k)  \\
\cfrac{1}{d_k} \left ( c_{jk} – \sum \limits _{i=1}^{i=k-1} d_j \cdot a_{ij} \cdot \overline a_{ik} \right), &  \text {dla } (j=k+1, \cdots, n)   \\
\end {cases} \label{80}  \end{equation} $$

Dla k=1 należy przyjąć: $d_1 = c_{11}$,   $a_{1j} =\cfrac{c_{j1}}{d_1}$.
Jeśli  $d_k=0$, to  przyjmujemy   $a_{kj}= 0,  \quad (j=1, \cdots, n)$

Niżej podano przykład rachunkowy.

Normalizacja – transformacja dowolnego rozkładu do normalnego

Jeśli zmienne są niekorelowane  w dowolnym rozkładzie, to będą również nieskorelowane w rozkładzie normalnym, a. dodatkowo w rozkładzie normalnym zmienne będą niezależne, co bardzo upraszcza szacowanie niezawodności systemu konstrukcyjnego. Dlatego w praktycznych algorytmach szacowania niezawodnośći, w tym FORM i SORM rozkład wektora stany $\mathbf(X)$ sprowadza się do rozkładu normalnego.

Transformacja wektora losowego o dowolnym rozkładzie prawdopodobieństwa na rozkład  normalny można dokonać na wiele sposobów, z których każdy daje przybliżenie rozkładu oryginalnego  o różnej  dobroci dopasowania. Najczęściej stosowane metody zestawiono w tab. 10.

Metody probabilistyczne drugiego poziomu

Metody probabilistyczne drugiego poziomu  posługują się aproksymacją  powierzchni granicznej $g(\mathbf{X})$ ($\ref{21}$) w szereg Taylora w otoczeniu  punktu NPP (rys. 1), zwanego też punktem obliczeniowym $\mathbf{x}^*$ , który w zapisie macierzowym można przedstawić w postaci($\ref{69}$) . W zależności od liczby zachowanych wyrazów rozwinięcia  ($\ref{18}$)  następuje dalsza klasyfikacja metod drugiego poziomu na rzędu:

  • rząd 1-szy w metodzie FORM – zachowany jest tylko liniowy człon (z wrażliwościami pierwszego rzędu$\nabla$ . Metoda jest często nazywana linearyzacją powierzchni granicznej,
  • rząd 2-gi w metodzie SORM  – zachowany jest człon drugiego rzędu (z wrażliwościami  drugiego  rzędu $\nabla^2$.  Metoda jest często nazywana parabolizacją powierzchni granicznej.

Procedury obliczeniowe metody FORM i SORM są  szczegółowo opisana w pracach Ditlevsena (1981) [48], Anga i Tanga (1984)[49], Rackwitz’a (1976) [50], Madsen’a i in. (1986) [51], Melchers (1987) [52], Dai i Wanga (1992) [53]oraz Tichy’ego (1993)  [54], Na rys. 12 za pracą [55]) przedstawiono schemat blokowy obliczeń obiema metodami.

Rys. 12 Schemat blokowy metody FORM i SORM [55])

Poniżej podano krótkie wprowadzenie do metody FORM,  umożliwiające przedstawienie kilku przykładów jej zastosowania.

Metoda niezawodności pierwszego rzędu (FORM)

Najprostszą metodą zaliczaną do metod probabilistycznych 2. poziomu jest metoda niezawodności pierwszego rzędu FORM, której nazwa jest skrótem od  First Order  Reliabilty Method, w której w konsekwencji linearyzaji powierzchni granicznej, do analizy wystarczy znajomość tylko dwóch pierwszych momentów statystycznych wektora stanu $\mathbf{X}$: wartości oczekiwanych $\mu_{\mathbf{X}}$ oraz  wariancji lub odchylenia standardowego $\sigma_{\mathbf{X}}$.

Podstawowym problemem metody FORM jest znalezienie punktu NPP (Najbardziej prawdopodobnego Punktu) na powierzchni granicznej  $ \mathbf {x}^*$, wokoł którego następuje rozwinięcia szeregu Taylora ($\ref{18}$). W punkcie tym następuje maksymalizacja gęstości prawdopodobieństwa powierzchni stanu granicznego, co prowadzi do najdokładniejszego przybliżenia prawdopodobieństwa zniszczenia.
Punkt NPP $\mathbf{x}^*$ jest znajdowany w procedurze iteracyjnej, którą przedstawili Hasofer i Lind (1974)  [13]. Macierzowe sformułowanie procedury wyznaczenie punktu projektowego NPP  podano w pracy Ditlevesena (1981) [48], cytującego Veneziano (1974) [56]w postaci:

$$ \begin{equation} \beta = \min \limits_{\mathbf{X} \in \Omega_f} \sqrt{ [ \mathbf{x}^* – \mu_{ \mathbf{X}} ]^T  \mathbf{C}^{-1} [ \mathbf{x}^* – \mu_{ \mathbf{X}}] } \label{81} \end{equation} $$

gdzie:
$\mathbf{X}$   wektor reprezentujący zbiór zmiennych losowych stanu;
$\mathbf{x}*$  wektor wartości zmiennych losowych stanu w punkcie NPP (rys.1)
$\mu_{ \mathbf{X}} $ –  ich wartości oczekiwane (średnie ) wektora $\mathbf{X}$;
$\mathbf{C}$ – macierz kowariancji;
$\Omega_f$ – obszar awarii (stanów niedopuszczalnych, zniszczenie)

Formuła ($\ref{19}$ pokazuje, że w celu  ustalenia współrzędnych punktu  projektowego NPP  należy  przeprowadzić optymalizację matematyczną formy kwadratowej

$[ \mathbf{x}^* – \mu_{ \mathbf{X}} ]^T  \mathbf{C}^{-1} [ \mathbf{x}^*  – \mu_{ \mathbf{X}}]$.

Wynikiem optymalizacji jest   liczba $\beta^2$ , a  jej pierwiastek jest właśnie współczynnikiem niezawodności $\beta$. W jednej procedurze optymalizacyjnej znajdowany jest punt projektowy oraz współczynnik niezawodności $\beta$

Można wykazać, że w przypadku, gdyby zmienne $\mathbf{X}$ były normalne i standaryzowane, to współczynnik $\beta$ ($\ref{19}$ byłby minimalną odległością między punktem wartości oczekiwanej funkcji gęstości prawdopodobieństwa ( początkiem układu współrzędnych), a powierzchnią stanu granicznego,.

Wobec tego przed procedurą optymalizacji  ($\ref{19}$) przeprowadza się przekształcenie zmiennych pierwotnych $\mathbf{X}$ do tzw. U-space przestrzeni standandaryzownych i nieskorelowanych  zmiennych normalnych $\mathbf {U}$.

Po przeprowadzeniu transformacji do U-space punkt NPP    równanie powierzchni granicznej ($\ref{21}$) przyjmuje postać

$$ \begin{equation} g_u (\mathbf{U}) = 0\label{82} \end{equation} $$

a warunek ($\ref{19}$) redukuje się do

$$ \begin{equation} \beta = \min  \sqrt{ [ \mathbf{u}^T  \mathbf{u}}\\
\leftarrow  g_u( \mathbf{u}=0  \label{83} \end{equation} $$

z którego uzyskuje się punkt NPP $\mathbf{u}^*$,   którego odległość od początku układu współrzędnych do powierzchni stanu granicznego jest najmniejsza.

W przypadku liniowej (zlinearyzowanej) powierzchni granicznej  z podstawowej własności  U-space czyli addytywności rozkładu normalnego wynika, że w sposób ścisły również liniowa funkcja stanu granicznego ma rozkład normalny. Dla powierzchni granicznej zapisanej w formie marginesu bezpieczeństwa

$$ \begin{equation}  M = R- E  \label{84} \end{equation} $$

gdzie :
R – losowa wytrzymałość o rozkładzie  $ \mathcal N ( \mu_R,\sigma_R)$,   E – losowe obciążenie,$  \mathcal N ( \mu_E ,\sigma_E) $,

to

$$ \begin{equation}  \mathcal N ( \mu_M, \, \sigma_M) = \mathcal N (\mu_R – \mu_E , \, \sqrt{\sigma_R^2 +\sigma_E^2}) \label{85} \end{equation} $$

Praktyczną procedurę analizy niezawodności dla skorelowanych rozkładów nienormalnych z zastosowaniem powszechnie dostępnych arkuszy obliczeniowych, np Microsoft Excel opisali  Low-Tang (1997) [57]). Algorytm możliwy do zaimplementowania w arkuszu kalkulacyjnym wykorzystuje obiektową optymalizację z ograniczeniami. Do wyznaczenia pochodnych numerycznych i iteracyjnego wyszukiwanie punktu projektowego wykorzystuje się  standardowe funkcje arkusza.

Narzędzie optymalizacyjne znajduje się w arkuszu Microsoft Excel z dodatkiem  Solver ( też: Lotus 123 i Quattro Pro). Dodatek Solver umożliwia optymalizację różnymi metodami, w tym:  1) nieliniową GEG (uogólniony zredukowany gradient) stosowaną w przypadkach, gdy relacje między zmiennymi a komórką celu są „gładkie” (ciągłe i różniczkowalne), 2) prosty algorytm sympleksu (LP simpleks), przeznaczony do liniowych problemów (funkcja celu i wszystkie ograniczenia muszą być liniowymi wyrażeniami), 3) metoda ewolucyjna, dla problemów o charakterze niegładkim, czyli takich, w których relacje między zmiennymi a komórką celu nie są gładkie.

Do optymalizacji problemu $(\ref{82}$) dla przestrzeni zmiennych normalnych,  przy zlinearyzowanej powierzchni granicznej, czyli w metodzie FORM  wystarcza metoda LP simpleks. Natomiast w metodzie SORM stosuje się najczęściej metodę CEG, a w trudnych przypadkach metodę ewolucyjną.

Metoda niezawodności drugiego  rzędu (SORM)

Metoda SORM została wyczerpująco omówiona w pracy Hu i in.(2021) [55]). W pracy wykazano, że:

  • metody SORM  są generalnie bardziej wydajne niż symulacje MC,
  • zastosowanie metody SORM jest ograniczone do niewielkiej liczby zmiennych losowych (do ok kilkudziesięciu),
  • w przypadku bardzo dużej liczby zmiennych losowych, tj. tysięcy: (1) nakład obliczeniowy związany z obliczaniem gradientów różnic skończonych podczas poszukiwania MPP rośnie liniowo wraz z liczbą zmiennych losowych; (2) konieczna jest duża liczba iteracji w celu uzyskania zbieżności do MPP; (3) zbieżność do rozwiązania globalnego przy użyciu konwencjonalnych algorytmów optymalizacji MPP staje się coraz mniej prawdopodobna wraz ze wzrostem wymiaru, ze względu na potencjalną obecność lokalnych minimów.

W niniejszym artykule nie przedstawiamy szczegółów metody SORM, bowiem w większości praktycznych problemów inżynierskich wystarczająca jest metoda FORM.

Metoda uogólnionej korelacji

W pracy Kudzys (1985) [58] przedstawiono praktyczny, uproszczony sposób szacowania niezawodności systemu niezawodnościowego złożonego ze skorelowanych elementów. Wprowadzono pojęcie uogólnionego współczynnika korelacji, to znaczy takiego zastępczego (integralnego) współczynnika korelacji, który jeden ujmuje efekt wielu wzajemnych współczynników korelacji elementów. Uogólniony współczynnik korelacji $\rho_g$ można zapisać w postaci:

$$ \begin{equation}\rho_g = \cfrac {\Delta P} {\Delta P_{max}} \label{86} \end{equation} $$
gdzie:
$\Delta P$ – poprawka oszacowania niezawodności, uwzględniająca błąd obliczeń, wskutek nie uwzględnienia korelacji (lub stochastycznej zależności) elementów,
$\Delta P_{max} $ – maksymalna wartość poprawki oszacowania niezawodności.

Niezawodność systemu złożonego z $r = n \cdot m$ elementów można obliczyć jak dla szeregowo połączonych wszystkich elementów z zależności ($\ref{37}$) , ale z poprawką $\Delta P$:

$$ \begin{equation} p_s= \prod \limits_{i=1}^r  p_{s,i} +\Delta P \label{87} \end{equation} $$

n – liczba elementów połączonych szeregowo,
m- liczba bloków po n-elementów połączonych równolegle,
$r=ncdot m$ – całkowita liczba elementów
$p_{s,i}$ – niezawodność elementu i-tego $(i = 1,.., r)$.

Maksymalny błąd obliczeń niezawodności systemu, w którym wytrzymałość i obciążenia są nieskorelowane, można oszacować z zależności [59]:

$$ \begin{equation}  \Delta P_{max} =  \min  \limits_{i=1}^ r  p_{s,i}  –  \sum \limits_{i=1}^ r  (1 – p_{s,i}) ] \label{88} \end{equation} $$

dzie
$ \min  \limits_{i=1}^ r  p_{s,i}$  – minimalna niezawodność elementu spośród r elementów systemu.

Z ($\ref {88}$) otrzymujemy  oszacowanie niezawodności systemu $p_s$  [60] :

$$ \begin{equation}  \prod \limits_{i=1}^r  p_{s,i} \le p_s \le  \prod \limits_{i=1}^r  p_{s,i} + \min \limits_i p_{s,i} – [ 1-  \sum\limits_{i=1}^r  (1 – p_{s,i})]\label{89} \end{equation} $$

Z oszacowania ($\ref{89}$) wynika, że uogólniony współczynnik korelacji ($\ref{86}$) można wyznaczyć z formuły:

$$ \begin{equation} \rho_g =\cfrac {\Delta P} { \min\limits_i p_{s,i} – [1-\sum\limits_{i=1}^r (1-p_{s,i})]}\label{90} \end{equation} $$

przy czym można zastosować przybliżenie, wynikające z odwrócenia ($\ref {40}$):

$$ \begin{equation} \rho _g \approx \cfrac {1} { 1 – \sum \limits_{i=1}^r  (1-p_{si})} \approx \prod \limits_{i=1}^r p_{s,i} \label{91} \end{equation} $$

Po podstawieniu $\Delta P$ uzyskanego z ($\ref{90}$) do ($\ref{87}$), uzyskujemy podstawowe wyrażenie metody uogólnionej korelacji, do oszacowania niezawodności systemu złożonego z dowolnych elementów powiązanych w strukturę mieszaną:

$$ \begin{equation} p_s \approx \rho_g \cdot \min\limits_i p_{s,i} + (1-\rho_g )\left [1- \prod\limits_{i=1}^r (1-p_{s,i})\right ] \label {92} \end{equation} $$

Podstawowym problemem metody uogólnionej korelacji jest wyznaczenie współczynnika $\rho_g $ ($\ref{86}$). Dla normalnie rozłożonych funkcji granicznych $g_i()$, miarodajną wartość uogólnionego współczynnika korelacji sytemu można wyznaczyć z formuły [60] :

$$ \begin{equation} \rho_g  \approx \ \overline {\rho}_g \left \{ 2 – \left [ \overline\rho_g + \cfrac {(1-\overline \rho_g) \cdot (3-log \, n)} {1-0,1 {\rho^2}_m \cdot (3 – log\, n)^2 } \right] \right \} \label{93}\end{equation} $$

gdzie:

$$ \begin{equation} \overline {\rho}_g= \cfrac {2}{n \cdot (n-1)} \sum\limits_{i<j} \rho_{i,j} \label{94} \end{equation} $$

jest średnią wartością współczynników korelacji wzajemnej $\rho_{i,j}$ elementu (i) z (j), uzyskaną przez uśrednianie po wszystkich r – elementach systemu, w ogólności skorelowanych, czyli statystycznie lub funkcjonalnie zależnych.

Do liczby elementów $r$ wliczany jest każdy blok (podsystem), który jest rozpatrywany jako samoistny element systemu włączając w to elementy połączeń oraz stężenia konstrukcji.

W pracy [58] sprawdzono dokładność formuły  $(\ref{93})$ przez porównanie z wynikami dokładnymi uzyskanymi przez calkowanie gęstości prawdopodobieństwa i  stwierdzono, że dokłądność metody uogółnionej koralacji jest zadawalająca, dla iczba zdarzeń (elementów konstrukcji) $(r< 500)$ .

Metoda powierzchni odpowiedzi (RSM)

Początki metody powierzchni odpowiedzi  (od ang Response Surface Model)  sięgają lat 50-tych, gdy BOX i Wilson [61] opracowli metodę \do planowania eksperymentów w chemii i przemyśle Jej pierwotnym celem było budowanie przybliżonych modeli funkcyjnych na podstawie danych eksperymentalnych, aby zminimalizować liczbę kosztownych testów laboratoryjnych. W latach  70. i 80. RSM zaczęto stosować do: optymalizacji procesów produkcyjnych, zagadnień mechaniki i materiałoznawstwa, problemów numerycznych, gdzie funkcja odpowiedzi jest wynikiem symulacji komputerowych.

Od lat 90. metoda stała się popularna w analizie niezawodności konstrukcji, ponieważ: pełna analiza probabilistyczna (np. metoda Monte Carlo) jest kosztowna, analizy numeryczne (głównie MES,) są iteracyjne i czasochłonne, RSM pozwala stworzyć tańszy model zastępczy („metamodel”). Metoda była rozwijana przez: Bakera, Harr’a, i Rosenblueth’a: [62], [63][64][65] [66], [67], [68].

Dziś RSM jest standardem w: ocenie ryzyka uszkodzenia konstrukcji,  analizach wrażliwości, probabilistycznej kalibracji norm projektowych. Metoda RSM zastąpiłą inne metody szcowania niezawodnosći, bowiem: modele konstrukcji (np. MES ) są złożone a ich analiza jest kosztowna, a obliczenia probabilistyczne wymagają dziesiątki tysięcy rozwiązań. RSM redukuje koszty obliczeń nawet 100–1000 razy.

Typowe obszarami zastosowań jest: ocena bezpieczeństwa konstrukcji stalowych i żelbetowych, ocena trwałości elementów betonowych (karbonatyzacja, korozja), niezawodność geotechniczna (nośność fundamentów, stateczność skarp), analiza efektów sejsmicznych, analiza zmęczeniowa w mostach i wieżach. Ograniczeniami w stosowaniu metody są:  utrata dokładności przy silnie nieliniowym zachowaniu,  niejasne kryteria wyboru wyboru punktów próbkowania, zła jakość metamodelu,.
Metoda powierzchni odpowiedzi: 1) umożliwia skuteczną, szybką i tanią analizę niezawodności konstrukcji, 2) często łączy się z FORM, SORM i Monte Carlo, 3) jest obecnie standardem w ocenie bezpieczeństwa konstrukcji budowlanych, gdzie pełna analiza probabilistyczna byłaby zbyt kosztowna.

Powierzchnia odpowiedzi jest modelem zastępczym funkcji stanu granicznego g(X) =0 ($\ref{22}$). Zamiast wykonywać dużą liczbę kosztownych analiz numerycznych konstrukcji, buduje się prostą aproksymację zwaną powierzchnią odpowiedzi, zwykle postaci modelu liniowego, parabolicznego lub wielomianowego wyższego rzędu, albo też  modelu kriging (RSM II), lub metod opartych na maszynowym uczeniu

Aproksymację powierzchni odpowiedzi  zapiszmy w postaci

$$ \begin{equation}  g(\mathbf{X} \approx \hat{g} (\mathbf{X}) \label {95} \end{equation} $$

i ta przybliżona wersja jest następnie używana w obliczeniach probabilistycznych.

W pierwszym kroku aproksymacji powierzchni  ogranicza się liczbą losowych zmiennych stanu do zmiennych istotnych (mp.t ylko: wytrzymałość betonu, grubość elementu, moduł sprężystości, charakterystyka obciążenia wiatrem/śniegiem.). W drugim kroku  projektuje się przebieg eksperymentu ( najczęściej numerycznego). Następnie  przeprowadza się analizy numeryczne. W wybranych punktach wyznacza się  rzeczywistą wartość na powierzchni $g(\mayhbf{X}) (np za pomocą MES, analizy plastyczności, symulacji dynamicznej).

Na podstawie znajomości wybranych punktów na powierzchni granicznej  konstruuje się powierzchnię odpowiedzi  w założonej postaci funkcyjnej (najczęściej powierzchni drugiego stopnia . Dopasowanie założonej powierzchni do znanych punktów prowadzi się  metodą e=regresji nieliniowej,  RSM opartym na krigingu, lub z wykorzystaniem sieci neuronowych(tzw meta-modelling).

W ostatnim kroku oblicza się  niezawodność konstrukcji  $p_f$  ($\beta$), stoisując metody FORM, SORM lub szybką symulację Monte Carlo.

Metoda symulacji Monte Carlo (MMC)

Wprowadzenie

Metoda Monte Carlo, to intuicyjna, odznaczająca się dużą prostotą, uniwersalna metoda, za pomocą której można rozwiązać złożone, dowolnie nieliniowe, uwikłane i sprzężone zagadnienia techniki, w tym konstrukcji budowlanych [69]. Szybka metoda Monte Carlo realizuje postulat zmniejszenia kosztowności metody, mierzonej liczbą potrzebnych cykli obliczeniowych. SMCC z powodzeniem zastępują klasyczne metody szacowania współczynnika niezawodności  konstrukcji budowlanych (SORM /FORM) i coraz częściej są realizowane w połączeniu z metodą genetyczną i warstwowania zgodnie z ideą hiperkostek łacińskich, a także szeregami Neumanna.

Metoda Monte Carlo (MCC) służy do rozwiązywania przede wszystkim zadań losowych, ale również zadań nielosowych, jak np: złożonych całek, równań różniczkowych,  równań nieliniowych, wyznaczenie ekstremum funkcji [70], [71].

Metodę MCC można stosować do wszystkich tych zagadnień, w których zawodzą metody analityczne. Można do nich zaliczyć: niezawodność systemów o złożonym układzie elementów, analizę systemów o zależnych czasach pracy i awarii urządzeń  i inne  [72].

Pierwsze szerokie zastosowanie metody MCC w roku 1944 przez von Neumanna umożliwiło zrozumieć fundamentalną ideę reakcji łańcuchowej, co  pozwoliło domknąć prace nad bombą atomową. MMC jest obecnie jedyną metodą pozwalającą na na obliczenie charakterystyk reakcji jądrowych przy dostatecznie, zbieżnych z realnymi warunkami,  ogólnych założeniach fizycznych.

Poprawność metody MCC w przypadku obliczania pól lub całek można udowodnić stosując twierdzenie Picka , skąd wynika , że metoda jest słuszna dla dowolnego kształtu pola lub granic całki.

W każdym przypadku, istotą metody MCC jest losowanie, rozumiane jako przypadkowy wybór, wartości zmiennych występujących w zagadnieniu. Losowanie jest dokonywane zgodnie z rozkładem statystycznym, który musi być znany. Stosowanie metody MC jest nierozłącznie związane z rozwojem metod numerycznych oraz programami komputerowymi.
Przykładem programów do oceny niezawodności konstrukcji budowlanych z zastosowaniem prostej MCC  jest zestaw programów symulacyjnych , opisany w [69], a obejmujący kilka programów:

Dokładność wyniku uzyskanego w metodzie MC jest zależna przede wszystkim od liczby losowań (sprawdzeń) oraz jakości użytego generatora liczb pseudolosowych. Dokładność metody zwykle zwiększa się wraz ze wzrostem liczby prób. Niesamowity i nieustanny wzrost mocy obliczeniowej komputerów oraz wprowadzanie nowych technologii do algorytmów numerycznych wskazuje na  to, że nieunikniony jest powrót do  stosowania metody MC i zmniejszenie znaczenia metod linearyzacji stosowanych wraz z metodami perturbacji zagadnień. Poprawa jakości generatorów liczb losowych jest ważna, bowiem generator liczb pseudolosowych ma skończenie wiele liczb losowych w cyklu i zwiększanie liczby prób ponad liczbę losowań w cyklu nie zawsze zwiększa dokładność wyniku.

Zamiast rozwijania metod aproksymacyjnych należy skupić się nad poprawą jakości generatorów liczb pseudolosowych oraz doskonalenia metody Monte Carlo w kierunku rozwijania Szybkich Metod Monte Carlo , których klasycznym przykładem jest symulacja według funkcji ważności, próbkowanie adaptacyjnego, warstwowanie mechanizmem hipersześcianów łacińskich,  stosowanie: zmiennej kontrolnej, średniej ważonej,  obniżania krotności całki, klasycznego losowania warstwowego [70] i in.. Współcześnie rolę taką przejmują metody genetyczne (sieci neuronowe).

Ze względu na dynamiczny rozwój technik informatycznych i technologii komputerowych – autor niniejszego artykułu przewiduje, że w szybkim czasie szybka metoda Monte Carlo zastąpi stosowane obecnie, aproksymacyjne, probabilistyczne metody. a  w tym zaawansowaną metodę drugiego momentu  (Advanced Second Moment ASM) [73] która umożliwia wyznaczenie współczynnika niezawodności konstrukcji Hasofera-Linda z zachowaniem postulatu niezmienniczości [74].

Stosowane współcześnie konstrukcje zmierzają do optymalności z warunku zużycia materiału, co powoduje że, stosuje się coraz powszechniej konstrukcje bliskie osobliwym, które są z reguły układami wysoce nieliniowymi zarówno geometrycznie jak i materiałowo, a także wrażliwych na utratę stateczności. To właśnie takie konstrukcje optymalne są szczególnie narażone na imperfekcje parametrów i ich analiza deterministyczna traci sens. W ich przypadku niestety zawodzą równiż klasyczne metody probabilistyczne. Stąd wielka waga i renesans metod Monte Carlo, stosowanych zamiennie lub łącznie z klasycznymi metodami analizy niezawodności konstrukcji (FORM/SORM)  Dlatego tak ważne jest udoskonalenie metody symulacji Monte Carlo poprzez wykorzystanie koncepcji tzw. optymalnej hiperkostki łacińskiej (ang. optimal Latin Hypercube – OLH) lub metody genetyczne.

Koszt obliczeń MCC

Ze względu na wielowymiarowość i uwikłanie zagadnień praktycznych, objawiający się na przykład: szybkim wzrostem rozmiaru zadania wraz ze zwiększaniem się liczby elementów, rozkład momentów funkcji niezawodności innym niż normalny czy potęgowy, często silnymi nieliniowościami – analizę niezawodnościową DSK (Dużego Systemu Konstrukcyjnego)  można efektywnie prowadzić wyłącznie metodą Monte-Carlo [75]. W przypadku DSK  inne metody w tym aproksymacyjne szeregami Taylora zawodzą, przede wszystkim ze względu na błędy pasożytnicze (maszynowe, procesora komputera), objawiające się szybkim zmniejszaniem dokładności rozwiązania wraz ze zwiększaniem rozmiaru zadania.

Przy założeniu niezależności poszczególnych symulowanych realizacji ocena (estymator) prawdopodobieństwa awarii DSK  Pf w analizowanym okresie wynosi po prostu:

$$ \begin{equation} P_f = \cfrac{n_f}{N}\label {96}  \end{equation} $$

gdzie nf – jest liczbą realizacji spośród wszystkich N  dla których system „wyskoczył” z obszaru dopuszczalnego w dowolnym miejscu (elemencie) i dla dowolnego kryterium jakości.
W celu otrzymania  oszacowania Pf ze względnym błędem średniokwadratowym $\delta=\cfrac{\sigma_{p_f}}{p_f}$ należy przeprowadzić nie mniej realizacji niż wynika to z formuły:

$$\begin{equation}  N = \cfrac{1-P_f}{P_f \cdot \delta^2}\label {97}  \end{equation} $$

Przykładowo dla Pf= 10-4 (wymaganego dla konstrukcji budowlanych prawdopodobieństwa zniszczenia   i dla błędu oszacowania 10% mamy N=106. W praktyce przeprowadzenie tak dużej liczby symulacji byłoby bardzo kosztowne i długotrwałe. Dlatego w analizie BSK ważne są szybkie metody MCC, pozwalające zmniejszyć wymaganą liczbę symulacji nawet o kilka rzędów.

Szybka Metoda Monte Carlo (SMMC)

Szybka metoda Monte Carlo jest odmianą prostej, ogólnej  metody MCC, polegającą na zwiększeniu efektywności (szybkości) metody podstawowej, poprzez wykorzystanie  dodatkowych informacji o równaniu systemu (powierzchni granicznej) oraz o mierze, względem której wykonuje się operację (najczęściej całkowanie funkcji prawdopodobieństwa).
Algorytmy redukcji wariancji, czyli procedury pozwalające na zwiększenie precyzji estymacji, polegają na odpowiednim doborze próby (ang. sampling), tak aby zmienność wyników symulacji była jak najmniejsza. Rezultat taki można osiągnąć przez zwiększenie liczebności próby, ale często zamiast zwiększania liczebności losowań, wystarczający efekt można uzyskać korzystając z metod redukcji wariancji [76].
W klasycznej pracy [70] wskazano na kilka metod zwiększenia efektywności klasycznej metody MC poprzez zastosowanie metod:
1) metody zmiennej kontrolnej
2) metody średniej ważonej
3) metody losowania warstwowego
4) obniżenie krotności całki
5) stosowanie stochastycznych formuł kwadraturowych

Stocki (2010) w rozprawie habilitacyjnej [77] wskazuje, że w problemach niezawodności konstrukcji budowlanych metoda Monte Carlo jest interesującą alternatywą do standardowych metod poszukiwania punktu projektowego na powierzchni granicznej.
Omawia kilka metod pozwalających na znaczną redukcję wariancji estymatora prawdopodobieństwa awarii, co pozwala znacznie ograniczyć liczbę losowań w celu uzyskania akceptowanej dokładności obliczenia całki prawdopodobieństwa dla bardzo niezawodnych obiektów, jakimi są konstrukcje budowlane.

Metoda funkcji ważności (importance sampling)

Najważniejszą metodą redukcji wariancji MCC  jest metoda funkcji ważności (ang importance sampling). która jest stosowana w wielu odmianach w zależności of konkretnego problemu [78]. Metoda ta jest w istocie klasyczną metodą zmiennej kontrolnej w ujęciu ilorazu, a nie różnicy funkcji gęstości oryginalnej f(x) i tzw losującej g(x). Można pokazać, że odpowiedni wybór gęstości losującej decyduje o efektywności metody. Jeśli  g będzie proporcjonalna do f w obszarze całkowania (awarii) , to wariancja redukuje się do zera i wystarczyłoby jedno losowanie, by uzyskać wynik dokładny. Nie jest to jednak proste  i ściśle możliwe w praktycznych sytuacjach.
Liczne doświadczenia w stosowaniu metody funkcji ważności w odmianie ach uproszczonych pozwalają stwierdzić, że zwykle zadowalającą estymację można otrzymać już po wygenerowaniu od kilkuset do kilku tysięcy realizacji zmiennych. Jest to o wiele rzędów wielkości mniej niż w przypadku klasycznego Monte Carlo. Wystarczy jako gęstość losującą wybarać rozkład normalny. Wówczas oszacowanie wartości prawdopodobieństwa awarii nie jest bardzo wrażliwe na kształt obszaru awarii,a  prawdopodobieństwo, że realizacja zmiennej losowej wygenerowanej zgodnie z gęstością losującą znajdzie się w obszarze awarii wynosi około 50%. Kontrastuje to z klasyczną metodą Monte Carlo gdzie prawdopodobieństwo “trafienia” realizacji w obszar awarii było mniej więcej równe obliczanemu prawdopodobieństwu awarii [77].

Metody adaptacyjne

Ponieważ stosowanie standardowej metody funkcji ważności w szeregu przypadkach może być zawodne, bo:
* w konkretnym zagadnieniu gęstość losująca może być źle dobrana,
* powierzchnia graniczna może posiadać wiele punktów projektowych (minimów lokalnych), na przykład w przypadku rozważania kilku funkcji granicznych (mechanizmów zniszczenia)
* powierzchnie graniczne mogą mieć znaczne ujemne krzywizny,
więc stosuje się metodę adaptacyjną doboru gęstości losującej. Dobór funkcji gęstości losującej rozpoczyna się od założenia prostej funkcji gęstości, najczęściej gaussowskiej, z wartościami oczekiwanymi i wariancjami określonymi na podstawie próby o niewielkiej liczebności. Poprzez generowanie kolejnych realizacji zmiennych losowych funkcja losująca jest ciągle udoskonalana, gdyż parametry rozkładu estymuje się na podstawie coraz liczniejszej próbki. Przyjmuje się, że gęstość losująca o tak uaktualnianym położeniu oraz kształcie zbiega ostatecznie do gęstości idealnej.

Niestety, zbieżności tej nie można zagwarantować, szczególnie w przypadku złego początkowego wyboru gęstości losującej. Dlatego często stosowane są modyfikacje tej metody, polegające na tym, że funkcja gęstości losującej jest składana ze kilku funkcji gęstości z zadanymi wagami. podlegającym odrębnym optymalizacjom (adaptacjom) lub aproksymacja oryginalnej powierzchni odpowiedzi przez powierzchnie prostsze dla których można zastosować efektywne, numeryczne algorytmy optymalizacji.

W większości zagadnień praktycznych efektywne będą metody mieszane (hybrydowe), polegające na tym, że w trakcie symulacji losowych są jednocześnie: a) przybliżane położenie punktu projektowego,  b) uaktualniana funkcja gęstości losującej  obszarze skoncentrowanym nad punktem projektowym, c) uaktualniana aproksymacja powierzchni granicznej. W procesie adaptacyjnym należy dążyć do tego by można było zastosować optymalizacyjne metody gradientowe, znajdujące zastosowanie w przypadku różniczkowalnego wycinka powierzchni granicznej, to znaczy należy jak najszybciej ominąć punkty osobliwe powierzchni granicznej.
Punkty osobliwe często występują w konstrukcjach wrażliwych na utratę stateczności i nie wytrąconych z położenia bifurkacyjnego. Dla takich konstrukcji należy stosować specjalne metody adaptacyjne.

Metody łacińskich hiperkostek

Metoda łacińskich hiperkostek (ang . Latin Hypercube Sampling (LHS)) jest statystyczną metodą wytwarzania próbki prawdopodobnych zbiorów wartości parametrów wielowymiarowym rozkładzie prawdopodobieństwa.  Metoda pobierania próbek metodą LHS,  jest stosowana od roku 1980  po opublikowaniu pracy [79]   i opracowaniu kodów komputerowych w latach kolejnych.

Podczas pobierania próbek funkcję Nzmiennych, zakres każdej zmiennej jest podzielona na Mrównie prawdopodobnych odstępach czasu. Mprzykładowe punkty są następnie umieszczane w celu zaspokojenia wymagań łacińskich Hypercube; zauważyć, że powoduje to szereg podziałów M, być taki sam dla każdej zmiennej. Należy również pamiętać, że program ten nie wymaga pobierania próbek kolejne próbki do większej liczby wymiarów (zmiennych); Niezależność ta jest jedną z głównych zalet tego systemu pobierania próbek. Kolejną zaletą jest to, że losowe próbki mogą być podjęte po jednym na raz, pamiętając, których pobrano próbki do tej pory.

Metoda LHS tym różni się od standardowych losowań, że uwzględnia wcześniej wygenerowane próbki, a ponadto należy z góry założyć ile punków próbkowania jest potrzebne. W standardowej metodzie MC próbki są generowane bez uwzględnienia wcześniej wylosowanych i nie jest znana liczba próbkowań. W metodzie LHS zapamiętywane są miejsca pobrania próbek w zapisie macierzowym (wiersz i kolumna). Optymalna hiperkostka jest generowana w metodzie ortogonalnej , w której przestrzeń  probabilistyczna jest dzielona na jednakowo prawdopodobne podprzestrzenie. Wszystkie  punkty próbkowania ortogonalnego są wybierane  jednocześnie każda podprzestrzeń jest próbkowana z tej samej gęstości.

W ten sposób próbkowanie ortogonalne zapewnia, że ​​zespół liczb losowych jest bardzo dobrym reprezentantem rzeczywistej zmienności losowej próby, podczas gdy tradycyjne (zwane ekstensywnym) jest po prostu zespołem liczb losowych bez żadnych gwarancji reprezentatywności.
Maksymalna liczba kombinacji dla łacińskiej hiperkostki  złożonej  z Mpodziałów przy Nzmiennych (czyli wymiarów) można obliczyć ze wzoru:

$$ \begin{equation} \left (\prod \limits_{n=0}^{M-1} (M-N) \right)  = (M!)^{N-1} \label {98}  \end{equation} $$

gdzie: M – liczba podziałów N-liczba zmiennych (N=2 – płaszczyzna, N=3 – przestrzeń). Przykładowo dla M=4, N=2  mamy 24 możliwych kombinacji; dla M=4, N=3 mamy 676 możliwych kombinacji(losowań)
Zwykle ten drugi sposób wystarcza do uzyskania wystarczającej ze względów praktycznych dokładności dla praktycznie częstych zagadnień, jeśli tylko spełnimy założenia generacji optymalnej hiperkostki. Dla uzyskania takiej samej dokładności w klasycznej metodzie MC zwykle potrzeba byłoby kilkaset razy więcej losowań.

Algorytmy genetyczne

Algorytmy genetyczne są stosowane w połączeniu z metodą łacińskich hiperkostek w istocie do generowania kolejnych hiperkostek w algorytmie znanym z sieci neuronowych, tzn  pozwala przewidywać następną populację na podstawie analizy łącznych zmian generowanych przez kilkadziesiąt wcześniejszych populacji  Ze względu na nieocenioną przydatność, algorytmy genetyczne w metodzie MC są przedmiotem wielu prac, np. [80].

Zastosowanie szeregu Neumanna

Do aproksymacji powierzchni granicznej stosuje się najczęściej rozwinięcie w szereg potęgowy Taylora. Wiele prac, np.: [81], [82], [83] pokazuje, że przy  optymalnym doborze parametru konwergencji i zastosowaniu algorytmu MCC ,  efektywny jest rozkład w szereg Neumanna. Takie obserwacje są również renesansem pierwotnych idei opisanych na wstępie tego artykułu.

Zastosowanie twierdzenia Bayesa

Podejście Bayesa różni się fundamentalnie od istoty metody Monte Carlo, czyli podejścia częstotliwościowego  do wyznaczania prawdopodobieństwa zdarzenia z definicji i zastosowania centralnego twierdzenia granicznego. Tymczasem przypadkowość i nieprzewidywalność zjawisk  w dużej mierze związana jest z brakiem wiedzy o naturze modelu przetwarzającego zmienne wejściowe , a nie od rozrzutu tych zmiennych. Symulacja realizacji zmiennych wejściowych nie dotyka istoty rzeczy, a zwiększanie liczby symulacji nie musi prowadzić do przybliżania prawdopodobieństwa zdarzenia. Twierdzenia Bayesa (o prawdopodobieństwie warunkowym) opiera się na znacznie szerszej definicji prawdopodobieństwa od definicji częstotliwościowej.

Podejście Bayesa do wyznaczania prawdopodobieństwa zdarzenia przeżywa gwałtowny wzrost zainteresowania w niemal każdej dziedzinie [84].

Metody hybrydowe

Najbardziej efektywne jest stosowanie metod hybrydowych poprzez połączenie wymienionych wyżej metod w sposób dostosowany do konkretnego zagadnienia.

Praktyczne zastosowanie metod szybkich symulacji

Wprowadzenie

Rozpatrzmy zastosowanie szybkich metod Monte Carlo do rozwiązania zadania optymalizacyjnego teorii niezawodności, czyli zadania   projektowania konstrukcji budowlanych. Podczas projektowania konstrukcji duże znaczenie ma zbadanie wpływu poszczególnych elementów i ich grup na niezawodność całego systemu konstrukcyjnego, co pozwala ujawnić słabe miejsca konstrukcji i doprowadzić do wymaganej niezawodności systemu poprzez  prawidłowe zaprojektowanie szczególnie tych miejsc.

Przyjmijmy, bez utraty ogólności, że system jest złożony z n grup jednakowych w każdej grupie elementów, a czas bezawaryjnej pracy elementów i-tej grupy (1≤i≤n) ma wykładniczy rozkład prawdopodobieństwa ze średnią τi .  Bez konkretyzowania pozostałych parametrów rozkładu i w szczególności zbiór stanów dopuszczalnych konstrukcji , oznaczmy przez Pf 1,…,τn) prawdopodobieństwo zniszczenia systemu w okresie użytkowania T, czyli w okresie czasu [0,T] przy znanych τi (1≤i≤n). Stopień wpływu niezawodności poszczególnych grup elementów na niezawodność całego systemu (wrażliwość systemu) wyraża gradient:

$$\begin{equation}  \nabla P_f=\left [ \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_1} , …, \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_n} \right ]\label {99}  \end{equation} $$

Zdefiniowana wrażliwość niezawodności charakteryzuje prędkość zmian niezawodności systemu przy zmianie niezawodności poszczególnych grup elementów. W praktyce projektowej nie można przestawić jawnych formuł na funkcje niezawodności Pf 1,…,τn)  i wobec tego do poszukiwanie gradientu tej funkcji ∇ należy zastosować szybkie metody symulacji i oraz teoretycznych metod oceny dokładności rozwiązań, podanych na przykład w pracy [85]. Przedstawione metody pozwalają oszacować gradient stochastyczny, to jest wektor $\left [ \varphi_1 \tau_1 ,…, \tau_n), …, \varphi_n \tau_1 ,…, \tau_n \right ]$, taki, że [86]:

$$\begin{equation} E \gamma_i (\tau_1,…, \tau_n)=\cfrac{\partial P_f(\tau_1,…, \tau_n)} {\partial \tau_i}, 1\le i \le n]\label {100}  \end{equation} $$

Ważną cechą metod szybkich symulacji jest to, że dla każdej realizacji i każdego  elementu można ocenić jakość zbioru elementów, więc w trakcie prowadzenia symulacji można poprawiać proces i skupić się na elementach słabych, statystycznie istotnych cechach oraz kryteriach jakości. Można również ocenić „wkład” każdego elementu w niezawodność  systemu.

Metody zmniejszenia dyspersji w zastosowaniu do wysoko-niezawodnych systemów

Przyjmijmy, że jest dany jest probabilistyczny model funkcjonowania systemu i należy określić pewną średnią cechę μ . Model systemu  definiuje stopień jakości (na przykład niezawodności) poprzez funkcję losowych wielkości ζ=f(ξ1, ξ2,…). Zmienne ξ1, ξ2 mają zwykle sens czasu bezawaryjnej pracy elementów systemu, czas naprawy, okresy przeglądów i remontów okresowych itp. Znając ich rozkłady prawdopodobieństwa, na podstawie ich realizacji można określić realizację ich funkcji ζ.  Jeśli Ω jest przestrzenią możliwych wartości wektora losowego   ξ=[ξ1, ξ2,…] , pξ(x) jest gęstością rozkładu prawdopodobieństwa tego wektora , to można zapisać

$$\begin{equation} N =\int \limits _\Omega f(x) p_\xi (x)dx \label {101}  \end{equation} $$

Przykłady rachunkowe

Przykład 1 [ Ścisłe momenty  statystyczne a metoda linearyzacji ]

Pole powierzchni pręta zbrojeniowego o losowej średnicy D

Metodą ścisłą wyznaczymy parametry pola powierzchni pręta zbrojeniowego o losowej średnicy  promieniu R=∅/2. Zmienne losowe oznaczymy dużymi literami  R, a  ich realizacje (wartości ) małymi literami r .

Pręty zbrojeniowe są walcowane z błędami promienia R, rozłożonymi podług normalnego rozkładu prawdopodobieństwa z wartością  oczekiwaną  $\mathcal {E} R= \mu_r = r_o$  oraz  odchyleniem standardowym $ \sigma_r$ , czyli funkcję gęstości  można zapisać w postaci:

$ f(R)=\cfrac{1}{\sigma_r \sqrt2\pi}\cdot exp \left[-\cfrac{1}{2}\left(\cfrac{R – \mu_r}{\sigma_r}\right)^2\right]$

Z punktu widzenia wytrzymałościowego istotne jest pole przekroju zbrojenia
$A(R) = \pi R^2$,
które jest nieliniową funkcją losowego promienia  $R$. W formułach ($\ref{10}$). w miejsce funkcji $\Theta(X) , będziemy podstawiać A(R).

Do wyznaczenia momentów losowych funkcji $A(R) $ : wartości średniej $ \mu_A$ oraz odchylenia standardowego $\sigma_A$ zastosujemy najpierw ścisłe formuły ($\ref{8}$), ($\ref{10}$).

($\ref{8}$) $\to$ $ \mu_A=\int \limits _{-\infty}^{\infty}\pi r^2  f(r) dr=\pi \cfrac {1}{\sigma \sqrt{2\pi}} \quad \int \limits _{-\infty}^\infty r^2\cdot exp \left[-\cfrac{1}{2} \left( \cfrac {r-\mu_r}{\sigma_r}\right)^2 \right]dr$

Ostatnia całka wraz z mnożnikiem $ \pi \cfrac{1}{\sigma_r \sqrt{2 \pi}}$ z definicji jest momentem drugiego rzędu losowej wielkości R, który oczywiście jest równy $r_o^2+\sigma_r^2$. Stąd otrzymujemy:

$\mu_A= \pi (r_o^2+\sigma_r^2)$

($\ref{10}$) $\to$  $ Var[A] = \sigma^2_A = \pi^2\cfrac{1}{\sigma_r \sqrt{2 \pi}} \int \limits_{-\infty}^\infty (r^2 – r_o^2 – \sigma_r^2)^2 \cdot exp -\left( \cfrac {r – r_0 }{\sigma_r}\right)^2 dr$

Po obliczeniu tej całki, otrzymamy:

$\sigma^2_A = 2 \cdot \pi^2 \sigma_r^2 \cdot (2 \cdot r_0^2 +\sigma_r^2) $

Linearyzacja zadania

Dla powyższego  zadania, w którym ściśle obliczono wartość oczekiwaną i odchylenie standardowe pola przekroju pręta, oszacujemy te parametry w sposób przybliżony poprzez linearyzację funkcji  

$A(r) = \pi r^2$  w otoczeniu wartości średniej promienia pręta $= r_0=\mu_r$.

Z rozwinięcia ($\ref{68}$) funkcji $A(r) w szereg Taylora po zachowaniu  członów liniowych  otrzymujemy liniową aproksymację w otoczeniu

$A(r) \approx  A(r_o) + \cfrac{\partial A(r)}{\partial r}|_{r=r_0} = \pi \cdot r_o^2 + 2\cdot \pi \cdot r = \pi\ (r_0^2 +2\cdot r)$

skąd:

$ \mu_A\approx A (\mu_r)=A (r_0)=\pi {r^2}_0 $

$ {\sigma^2}_A = 4 \pi {r^2}_0 {\sigma^2}_r$

Porównując formuły przybliżone ze ścisłymi , widzimy, że wynik przybliżony jest dobry jeśli tylko  $\sigma_r \ll  r_0$, to jest jeśli odchylenie standardowe jest małe w stosunku do wartości oczekiwanej. Na przykład przy $V_r=\cfrac{\sigma_r}{\mu_r}= 10 \%$ , błąd oszacowania wartości oczekiwanej wynosi 1%, a odchylenia standardowego 0,5%.

 Ugięcie wspornikowej belki  Timoshenko o losowej długości L

Wyznaczymy momenty losowego  ugięcie $f$ końca wspornikowej belki Timoshenko (z uwzględnieniem sztywności postaciowej) o losowej długości $L$ i innych parametrach nielosowych, w tym o nielosowej sztywności giętnej $EI$ oraz postaciowej $S_v$.

Przemieszczenie $f$ końca wspornika (pod siłą P) można wyznaczyć ze znanej zależności (np artykuł autora):

$f =\int \limits_0^L \left( \cfrac{M \overline M}{EI} + \cfrac{V \overline V}{S_v} \right ) dx$

Wykresy sił do wyznaczenia ugięcia wspornika

Rys. P1-1 . Wykresy sił do wyznaczenia ugięcia wspornika Yimoshemko

Po „przemnożeniu wykresów sił”,pokazanych na rys.P1-1,  otrzymujemy formułę na ugięcie $f$, które jest funkcją losowego argumentu $L$:

$Y=\cfrac {PL^3}{3EI} +\cfrac{PL}{S_v}= \cfrac{P }{3 EI}( L^3+ 3 k\cdot L)$

gdzie współczynnik podatności na ścinanie $k = \cfrac{EI}{S_v} $.

Parametry losowej długości belki

Przyjmijmy, że losowa długość pręta X=L ma  jednostajny rozkład  prawdopodobieństwa z gęstością prawdopodobieństwa:

$\cfrac{1}{2\cdot \Delta L}$ w przedziale $(L-\Delta L ; L+\Delta L)$, a poza tym przedziałem jest równa zero.

Rozkład ten pokazano na rys. 1. Tak przyjęty rozkład oznacza,  że w przedziale możliwych wartości długości  belki $L \pm \Delta L$, gdzie $\Delta L$ jest dopuszczalną tolerancją może przyjąć każdą wartość z tym samym prawdopodobieństwem

$p= Prob\{X=x\}= \cfrac{1}{2 \Delta L}$,

a kontrolę jakości wyklucza wartości spoza tego przedziału.

Rozkład równomierny losowej długości belki

Rus. P1-2 Rozkład równomierny losowej długości belki

Z własności rozkładu jednostajnego, wynika że wartość oczekiwana długości belki wynosi
$\mu_L= \cfrac{(L-\Delta L)+(L+\Delta L)}{2}=L$,
a wariancja
$Var L= \cfrac{[(L- \Delta L)-(L+ \Delta L)]^2}{23}= \cfrac {\Delta^2 L} {3}$.

Ścisłe momenty statystyczne ugięcia wspornika Timoshenko

Wartość oczekiwana  ugięcia belki obliczona ze znanej gęstości prawdopodobieństwa wynosi:

$\mu_f= C \cdot p \int \limits_{L- \Delta}^{L+ \Delta}\ (x^3 + 3k x) dx= C L (L^2 +\Delta^2 +3k)$

 gdzie wprowadzono oznaczenia:
$\Delta=\Delta L$ ; $C=\cfrac{P}{3 EI}$ ; $p=\cfrac{1}{2 \Delta}$

Wariancja (2) ugięcia $f$  wynosi:

$ Var f = C^2  p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x)^2 dx = C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +3k^2 +\cfrac{6k}{5} (5 L^2 +\Delta^2) +\cfrac{\Delta^4}{18} \right) $

Dla długości belki wykonanej bez odchyłki wymiarowej $\Delta=0$ wariancja jest zerowa.

Kowariancja i współczynnik korelacji ugięcia f  z losową długością L wynosi:

$Cov _{f L}= C p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x) \cdot (x-L) dx = C \Delta^2 \left ( L^2+k+\cfrac {\Delta^2}{5} \right)$

$\rho_{f L}=\cfrac{L^2+k +\cfrac{\Delta^2}{5}} {\sqrt{ (k+L^2)^2+ \cfrac {25}{105} (3k+5 L^2)\Delta^2 +\cfrac{\Delta^4}{32}}}$

Dla $\Delta=0$ korelacja jest pełna ($\rho_{f L}=1$).

Ścisłe momenty statystyczne ugięcia wspornika Bernoulligo

Dla  $k=0$ (dla klasycznej belki Bernoulliego)  powyższe formuły upraszczają się do postaci :

$\mu_f= C L (L^2 +\Delta^2)$,
$ Var f == C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +\cfrac{\Delta^4}{18} \right) $,
$ Cov \{ f, L \}=C \Delta^2 \left ( L^2\cfrac {\Delta^2}{5} \right) $,
$\rho_{fL}=\cfrac{L^2+\cfrac{\Delta^2}{5}} {\sqrt{ L^4+ \cfrac {25}{32}\Delta^2L^2 +\cfrac{\Delta^4}{32}}}$

Porównując  (14) z funkcją (13) widzimy zgodność zapisu dla $\Delta=0 $, to znaczy dla długości belki wykonanej bez odchyłki wymiarowej. Do porównania wrócimy jeszcze  podczas omawiania metody linearyzacji.

 Ugięcie wspornikowej belki  Timoshenko o losowej długości L. Metoda linearyzacji

Pochodna cząstkowa funkcji $f(x)$  (12) przy oznaczeniu  $x=L$ wynosi:

$ Y(x)^{’}= \cfrac {\partial Y (x)}{\partial x}= 3C ( x^2+k)$

a zlinearyzwne momenty statystyczne wynoszą

$ \tilde {\mu_f}= \varphi(\mu_x)=3C(L^2+k) $,
$ tilde {Var f} = |\varphi^{’} (\mu_x)|^2 \cdot \sigma_x^2=|\varphi^{’} (L)|^2 \cdot \sigma_L^2=C^2 \Delta^4(k+L^2)^2$

Porównując powyższe oszacowania z wartościami ścisłymi  otrzymujemy:

$ \cfrac {\mu_Y} {\tilde{\mu_Y}}=1+ \cfrac {\Delta^2} {L^2+3k}
\cfrac {Var Y} {\tilde{Var Y}}=1+….

W prezentowanym przykładzie dla $k=0$ (belka Bernoulliego) i dla spotykanego w praktyce $\cfrac {\Delta}{L} \approx 3 \%$ błąd oszacowania średniej i wariancji jest zaniedbywalny.

Przykład 2 [Bezpieczeństwa pręta żelbetowego zaprojektowanego wg Eurokod 2]

Sprawdzić bezpieczeństwo rozciąganego pręta żelbetowego o długości $L=6 m$. Zbrojenie pręta zaprojektowano zgodnie z normą [87] wariantowo:
A z 4-ch prętów, B z 8-miu prętów (o mniejszych średnicach). 
W zadaniu nie są istotne konkretne średnice prętów, ale stwierdzenie, że w każdym przypadku spełniono wymagania normowe, czyli projekt wykonano dla  wymaganego przez normę PN-EN 1990 [88] wskaźnika niezawodności
$\beta_{global}=3,8 $.

Dane

Granica plastyczności prętów zbrojeniowych jest oznaczana na próbkach długości
$L^*=30 cm$
jako kwantyl 5%, czyli prawdopodobieństwo zniszczenia próbki wynosi
$p_{si}=0,95$

Pręt jest zbrojony  prętami w liczbie
Wariant  A: $m_A=4$ ;
Wariant B: $m_B=8$,

Wyniki

Wymagana niezawodność  pręta

mierzona prawdopodobieństwem zniszczenia, wynosi
$p_s=\Phi(-\beta_{global})=\Phi(-3,8)=0,999927652$

Ustalenie  typu systemu niezawodnościowego

Każdy z prętów zbrojeniowych jest złożony z  $n=\cfrac {L} {L^*}=\cfrac {600}{46}=20$ elementów połączonych szeregowo.

Pręt żelbetowy  jest strukturą z ogólnym rezerwowaniem, której model pokazano na rys. 7 i którą opisuje wzór ($\ref{44}$)

Ze wzoru ($\ref{44}$) obliczamy niezawodności systemu w poszczególnych wariantach liczby prętów:

Wariant A: $p_s = 1 – (1- 0,95^{85})^4=0,831$
Wariant B: $p_s = 1 – (1- 0,95^{85})^8=0,971$,

czyli w obu wariantach o kilka  rzędów za małe od wymaganego $\beta = 3,8$, czyli

($\ref{57}$) $\to$ $p_s =1 -p_f = 1 – \Phi(-\beta) = 1 – 1 – \Phi(-3,8)=  1- 0,000072348 = 0,999927652$

Zbrojenie prętami o mniejszej średnicy, ale  większej liczbie w wiązce zwiększa niezawodność systemu. W przykładzie uzyskaliśmy wzrost niezawodności mierzonej prawdopodobieństwem przeżycia o ok. 17%.

W celu uzyskania wymaganej niezawodności pręta- niezawodność elementów (odcinków zbrojenia) dla bardziej korzystnego wariantu B można wyznaczyć z równania:

 $0,999927652=1-(1-p_{si}^{85})^8$.

Z rozwiązania tego równania uzyskano

$p_{si}=0,982$,

co daje współczynnik tolerancji ok. 2,10, a nie 1,64 jak dla normowego kwantyla 5% charakterystycznej wytrzymałości (granicy plastyczności) stali.

W w celu utrzymania niezawodności pręta na wymaganym poziomie przez normę PN-EN 1990 [88] należałoby istotnie zwiększyć nośność prętów zbrojeniowych poprzez zwiększenie ich przekroju lub klasy stali. Wymiarowanie pręta z warunku

$\beta \le 3,8$

nie jest przedmiotem niniejszego przykładu, ale prowadzone wyliczenia pokazały  ważną okoliczność:

Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i to również wówczas, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa.

Niestety w europejskich normach projektowania nie uwzględnia się pokazanych wyżej mechanizmów niezawodnościowych.

Przykład3  [System szeregowy  – kratownica statycznie wyznaczalna]

Zaprojektować kratownicę pokazaną na rys.P2-1, tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła   β =3,8.

Dane

Rys. P2-1. Schemat kratownicy statycznie wyznaczalnej. Niezawodnościowy system szeregowy

Analiza problemu

Rozwiązanie zadania podano w artykule

Chodor L, Kłosowska, Dobór elementów struktury konstrukcyjnej szeregowej z warunku wskaźnika niezawodności dla normalnego, lognormalnego, Weibulla i Gumbela rozkładu granicy bezpieczeństwa, Kielce 2014.

który jest wynikiem kursu prowadzonego w 2014 roku przez autora w ramach przedmiotu „Bezpieczenstwo i Niezawodność Budowli” na Wydziale Budownictwa Lądowrgo Politechniki Świętokrzyskiej w Kielcach: 

Skrócone wnioski

  1. Niezawodność układu zależy od losowej zmiennościobciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.
    Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i w praktyce inżynierskiejmoże być przyczyną katastrof budowlanych również wtedy, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa.
  2. W doborze rozkładu prawdopodobieństw należy kierować się tylko przesłankami obiektywnymi, oraz dostępnymi narzędziami analitycznym:
    a) rozkład Gaussa (normalny), stosowany w większości prac na temat bezpieczeństwa konstrukcji. zwykle prowadzi do uzyskania zbyt optymistycznego oszacoania niezawodnosći konstrukcji.,
    b) dla bardziej realistycznych rozkładów ekstremalnychuzyskuje si e mniejsze niezawodnosći konstrukcji,
  3. W praktyce inżynierskiej, do opisania charakteru obciążeń powinno się założyć, że są one określone rozkładem Gumbela (rozkład maximów), a wytrzymałość konstrukcji opisuje rozkład Weibulla (rozkład minimów).
    Prz tym zastosowanie metody kolokacji rozkłądów prawdopodobieństwa, sprowadza analizę do znanych algorymów, wykorzytujących  własności rozkładu normalnego,
  4. Podany w pracy przykład potwierdza tezę, że przy analizie niezawodności konstrukcji, należy brać pod uwagę rodzaj rozkładu decydujących parametrów tj. obciążenia i  wiodących zmiennyeh  nośności.

Przykład 4 [System równoległy -sprężysto-plastyczna rama portalowa ]

Zaprojektować ramę pokazaną na rys. 11 , tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła   β =3,8 .

Dane

Rys.P3-1. Schemat ramy statycznie niewyznaczalnej – niezawodnościowy system mieszany

Analiza problemu

Rozwiązanie zadania podano w odrębnym artykule: 

Chodor L, Kłosowska J., Dobór elementów złożonej struktury konstrukcyjnej z warunku wskaźnika niezawodności, Kielce, 2014 .

Zastosowano klasyczne podejście teorii nośności plastycznej, a także najprostsze oszacowania granic niezawodności systemu niezawodnościowego.

Skrócone wnioski

  1. Niezawodność układu zależy od losowej zmienności obciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.Nośność systemu obliczona jako kwantyl globalny jest większa od sumy kwantyli lokalnych, co jest określane statystycznym efektem zwiększenia nośności obliczeniowej system równoległego.
    Dla analizowanej ramy statystyczny efekt zwiększenia nośności obliczeniowej wynosi 15%,
  2. Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne jest stosowanie oszacowań górnych i dolnych prawdopodobieństwa zniszczenia.
    Przy założeniu, że minimalne cięcia systemu nie mają wspólnych elementów oszacowanie nośności granicznej konstrukcji  z warunku $N = min N_k$
    daje  oszacowanie od dołu, faktyczna nośność plastyczna może być większa.

Przykład 5 [Minimalne ścieżki i cięcia i oszacowanie niezawodności systemu metodą Barlow-Proschan]

Przykład  za pracą [89]

Wyznaczyć minimalne ścieżki cięcia kratownicy   Ditlevsen-Madsen, pokazanej na rys. P4-1 oraz oszacować niezawodność systemu.

Elementarz teorii niezawodności .Kratownica Ditlevsen-Madsen

rys_P3-1. Kratownica Ditlevsen-Madson

Dane

Kratownica Ditlevsen-Madsen (rys. 2-1) składa się z 10. elementów {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}. Kratownice podstawowe (1) do (6) uzyskano poprzez usunięcie odpowiednio pręta: 1, 2, 3, 4,5, 6, to znaczy są to wszystkie możliwe schematy geometrycznie niezmienne.

Sposób utworzenia kratownic podstawowych (1) do (6)

Systemy podstawowe )w tym przypadku kratownice podstawowe) są takie systemy utworzone z systemu oryginalnego (rys. P4-1a),  w taki sposób, że po awarii części elementów system pracuje. W budownictwie „system pracuje” =  ” system jest stabilny”, czyli pozostaje stabilny i wytrzymały.

W przypadku kratownicy Ditlevsen-Madsen do zbioru systemów podstawowych nie można zaliczyć systemó:

  • z usuniętymi elementami 7, 8, 9 lub 10, bo to  prowadziłoby do ustroju geometrycznie zmiennego (mechanizmu) i nie spełnia podstawowego warunku systemu konstrukcyjnego, a także wymogu dla minimalnej ścieżki elementów w konstrukcji budowlanej.
  • z usuniętymi kolejnymi prętani w schemacie (1) do (6), bo konstrukcja budowlana zmieniłaby się w konstrukcję mechaniczną (mechanizm, czyli system o jednym stopniu swobody).

Minimalne ścieżki

Minimalne ścieżki kratownicy Ditlevsen-Madsen, obrazują schematy (1) do (6) na rys P4-1b. Odpowiadające zbiory elementów można zapisać następująco:

minimalne ścieżki (P4-1)

$\{2, 3, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 3, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 4, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 5, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 4, 6, 7, 8, 9, 10\}$
$\{1, 2, 3, 4, 5, 7, 8, 9, 10\}$

Każdy z tych systemów (mimalnych ścieżek) jest układem szeregowym z punktu widzenia niezawodności, zawierającym po n= 9 elementów (prętów).
Te minimalne ścieżki są pomiędzy sobą równolegle połączone z punktu widzenia niezawodności.

Minimalne cięcia

Ponieważ elementy 7, 8, 9, 10 występują w każdej minimalnej ścieżce, to mamy cztery minimalne cięcia po jednym elemencie w każdym zbiorze:

{17}, {28}, {27}, {28}.

Każdy z pozostałych sześciu elementów:  1 , 2 , 3 , 4 , 5, 6 występuje po pięć razy we wszystkich minimalnych ścieżkach, to znaczy, wszystkie pozostałe zestawy minimalnych cięć mają dwa elementy i pojawiają się w identycznych parach, a zatem istnieje $\cfrac {5 \cdot 6} {2}= 15$ minimalnych cięć z dwoma elementami, co zapiszemy następująco:

{1,2}, {1,3}, {1,4}, {1,5}, {1,6}, {2,3}, {2,4}, {2,5}, {2,6}, {3,4}, {3,5}, {3,6}, {4,5}, {4,6}, {5,6}.

Ostatecznie mamy 19. minimalnych cięć, które reprezentują system szeregowy z  19. oma elementami, z których 15. stanowi równoległe systemy z dwoma elementami. Ostatecznie mamy następujące minimalne cięcia

minimalne cięcia (P4-2)
$\{7\} ,\{8\} ,\{9\} ,\{10\}, $
$\{1,2\}, \{1,3\}, \{1,4\}, \{1,5 \}, \{1,6 \}, $
$\{2,3\}, \{2,4\}, \{2,5\}, \{2,6 \}, $
$\{3,4\}, \{3,6\}, $
$\{4,5\}, \{4,6\}, $
$\{5,6\}. $

Oszacowania niezawodności

Przyjmijmy dość oczywiste założenie stowarzyszenia elementów (stowarzyszenia zapasów nośności poszczególnych prętów kratownicy), a następnie przyjmijmy, że elementy mają identyczną niezawodność r :

$r_i = r \quad (i=1,…10)$

Zgrubne oszacowanie dla elementów stowarzyszonych, ale bez znajomości minimalnych ścieżek i cięć wyznaczamy   z zależności ($\ref{63}$)

$ \prod \limits_{i=1}^{28} r_i =r^{28} \le r_s \le \prod \limits_{i=1}^{28} [1-(1 – r_i )]^{28} = [ 1- (1 – r )]^{28}$          (P4-3)

Jeśli uwzględniamy znajomość minimalnych ścieżek (P4-1) oraz minimalnych cięć (P4-2), to zgodnie z ($\ref{65}$), mamy:

(P4-4)
$ \max { \{ (r_2 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28}) \, ;\, (r_1 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9\cdot r_{28}) \, ;\, (r_1 \cdot r_2 \cdot r_4 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} ) \, ; \, \\ (r_1 \cdot r_2 \cdot r_3 \cdot r_5 \cdot r_6 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} ) \, ;\, (r_1 \cdot r_2 \cdot r_3 \cdot r_4 \cdot r_5 \cdot r_7 \cdot r_8 \cdot r_9 \cdot r_{28} \} } \\ = r^9  \le  r_s $
$\le \ min { ( r_7 + r_8 + r_9 + r_{28} – r_7 \cdot r_8 – r_7 \cdot  r_9 – r_7 \cdot r_{28}) \, ;\, ( \, ……. \, ) }$

Dalsze rozważania zmieszczono w podręczniku Ditlevsen, Madsen (1996) [89].

Przyklad 6 [ Porównanie metod normalizowania rozkładu]

Oszacować prawdopodobieństwo zniszczenia  $p_f= Prob ( R – E <0)$  oraz indeks niezawodności $\beta$ dla danych podanych niżej .
Przyjąc, że zmienne R i G nie są skorelowane: $ Cov (R, \quad E) =0 $

Dane

Analiza pomiarów empirycznych o liczebności w $N$ wytrzymałości pewnej konstrukcji $R$ oraz  jej obciążenia $F$ wykazała, że  parametry z próby wyznaczone z zależności
średnie  empiryczne  $ m_X = \sum\limits_{i=1}^N x_i $ ,
empiryczne odchylenia średniokwadratowe   $ s_X = \sqrt{\cfrac{1}{N-1} \sum\limits_{i=1}^N (x_i -m_X )^2} $

wynoszą:
dla wytrzymałości (X=R): $m_R= 100$; $s_R= 10$
dla obciążeń (X=E): $m_E= 80$; $s_E= 20$

Po przeprowadzeniu testów statystycznych stwierdzono też, że:

R ma rozkład normalny  $\mathcal N (\mu_N,\, \sigma_N)$ , gdzie można przyjąć:  $\mu_N \approx m_R= 100$, $\sigma_N \approx s_R= 10$
E ma rozkład lognormalny  $\mathcal L (\mu_L , \, \sigma_L)$, dla którego parametry wyznaczono niżej.

Transformacja zmiennej lognormalnej E $(\mathcal L ↔ \mathcal N)$

Wartość oczekiwana $\mathcal E[X]$  oraz wariancja  $Var [X]$  wyznaczone ściśle ( z całkowania gęstości rozkładu normalnego zmiennej $X$ wynoszą:
tab.2 $\to$
$ \mathcal E [X] = \mu_X  = e^{\left (\mu_{\mathcal L}+\sigma^2_{\mathcal L}/2\right)}$,
$ Var[X] = \sigma^2_X = e^{2 \mu_{\mathcal L}+\sigma^2_{\mathcal L}} \cdot \left ( e^{\sigma^2_{\mathcal L}} – 1 \right )$

gdzie $\\mu_{\mathcal L} $, $\sigma_{\mathcal L}$ parametry  rozkładu lognormalnego ,

Zakładamy, że teoretycznie ścisła wartość oczekiwania i wariancja rozkładu jest wystarczająco dobrze określona przez estymatory empiryczne:
$\mu_X \approx m_X$
$\sigma_X \approx  s_X$

Z odwrócenia powyższych zależności uzyskujemy wyrażenia na parametry rozkładu lognormalnego wyliczone  na podstawie znanych empirycznej średniej $m_X$ i odchylenia standardowego $s_X$

$\sigma_{\mathcal L }= \sqrt{ \ln { \left [1+ (s_X/ m_X)^2 \right] } } =  \sqrt{ \ln { \left [1+ v_X^2 \right] } }$.
$\mu_{\mathcal L }  = \ln {\left ( m_X^2 / \sqrt{m_X^2 + s_X^2} \right)}= \ln {\left ( m_X / \sqrt{1+v_X^2 } \right)}= ln (m_X) – \cfrac{\sigma_{\mathcal L }^2}{2} $

gdzie współczynnik zmienności z próby wynosi  $v_X= \cfrac{s_X}{m_X}$

W tab.6, w której podano estymatory z wyników z próby dla parametrów rozkładów najczęściej spotykanych w analizie konstrukcji budowlanych. Dla rozkładu lognormalnego uzyskano zgodność formuł)

Dla obciążeń (X=E): $m_E= 80$; $s_E= 20$ , $v_E =\cfrac{20}{80}=0,25$ mamy

$\mu_{\mathcal L }  = \ln {\left (80 / \sqrt{1+ 0,25^2} \right)}= 4,352$
$\sigma_{\mathcal L }= \sqrt{ \ln { \left [1+ 0,25^2 \right] } } =0,246$.

Ponieważ zmienne $R$ i $E$ z założenia (w przykładzie) nie są skorelowane, więc nie  trzeba przeprowadzać ich dekorelacji.

Transformacja do zmiennych standardowych (scentralizowanych)

Jeśli $X  \sim \mathcal N (\mu_X, \,\sigma_R^2)$, to
standaryzacja   do zmiennej   $\sim \mathcal N (0, \,1 )$ odbywa się poprzez przekształcenie
$U_X = \cfrac{X- \mu_X}{\sigma_X}$

Jeśli $Y  \sim \mathcal L (\mu_{\mathcal L } , \, \sigma_{\mathcal L }^2)$, to
$ ln Y \sim \mathcal N ( \mu_{\mathcal L } , \,  \sigma_{\mathcal L }^2)$

a  standaryzację  $Y$ do zmiennej   $\sim \mathcal N (0, \, 1 )$ można dokonać przekształceniem

$U_Y = \cfrac { ln Y – \mu_{\mathcal L}}{\sigma_{\mathcal L}}$

Transformacja funkcji granicznej do przestrzeni $U$

Oryginalną  funkcję graniczną $g(R, \quad E) = R – E $

przekształcimy do U-przestrzeni,  uwzględniając zależności:
$R = \mu_R + \sigma_R \cdot U_R$,
oraz
$ ln {E} = \mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E$, czyli
$ E= exp{ \mu_{\mathcal L} +\sigma_{\mathcal L}\cdot U_E}$.

Stąd funkcja graniczna w U-przestrzeni przyjmuje postać

$g(U_R, \, U_E) = R – E = \mu_R + \sigma_R\cdot U_R – \exp{(\mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E) }$

Powierzchnia graniczna g(…)  jest liniową  funkcją zmiennej $U_R$ i nieliniową zmiennej $U_E$

Gradient  funkcji granicznej $\nabla g$

Składowe gradientu powierzchni granicznej wynoszą:

$ \cfrac{\partial g()}{\partial U_R}= \sigma_R$

$ \cfrac{\partial g()}{\partial U_E}=  – \sigma_{\mathcal L} \cdot \exp{( \mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }$

Wektor gradientu $\nabla g()$ ($\ref{71}$) , ($\ref{72}$) wynosi

$ \nabla g(U_R, U_E)= \begin{bmatrix}  \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }  \end{bmatrix}$

Norma gradientu (długość wektora) wynosi

$\parallel \nabla g (U_R, U_E) \parallel = \sqrt{ \left( \cfrac{\partial g}{\partial U_R}\right)^2+ \left( \cfrac{\partial g}{\partial U_E}\right)^2} = \sqrt{ \sigma_R^2 +[ \sigma_{\mathcal L}\cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }]^2} $

Wektor kierunkowy gradientu (normalny do powierzchni granicznej

$ \alpha (U) =\cfrac{1}{\parallel \nabla g (U_R, U_E) \parallel} \cdot \nabla g(U_R, U_E)= \begin{bmatrix}  \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }  \end{bmatrix}$

W punkcie NPP wektor kierunkowy wynosi $\alpha^* = \alpha(U_E^*, U_E*)$

W metodzie FORM gradient $\nabla g(U)$ określa kierunek „najbardziej stromego wzrostu” funkcji granicznej, norma gradientu jest potrzebna do wyznaczenia wektora jednostkowego normalnego $\alpha$, oraz  aktualizacji iteracji podczas poszukiwania punktu NPP.

Rozwiązanie problemu optymalizacyjnego do znalezienia NPP (punktu projektowego)

Punkt NPP wyznacza dominujący kierunek awarii i znajduje się przez rozwiązanie problemu optymalizacyjnego

$ \min \limits_{U=(U_R, U_E)}  \cfrac{1}{2} \mathbf{U}^T\mathbf{U} $
czyli problemu
minimalizuj $\cfrac{1}{2}\parallel  U \parallel^2$ przy ograniczeniu g(U)=0.

Zadanie rozwiązujemy metodą mnożników  Lagrange’a $\lambda$.
Z warunków pierwszego rzędu mamy warunek stacjonarności problemu

$U+ \lambda \nabla g =0$, skąd
$U= – \lambda \nabla g =0$

Klasyczna iteracja R-F (Rakwitz-Fiessler) (1978)  [90] (w przestrzeni $U$) ma postać:

$ U^{(k+1)}  = \cfrac{g(U^{(k)})}{|||\nabla g(U^{(k)}) |} \cdot \alpha g(U^{(k)})$

 

 

Przykład 7 [ Oszacowania niezawodności metodą uogólnionej korelacji]

Wyznaczyć niezawodność belki żelbetowej , pokazanej na rys. P5-1  metodą uogólnionej korelacji,
Uwzględnić mechanizm zniszczenia zbrojenia (przekrój-warstwa 1), a także betonu (przekrój-warstwa 2) oraz mechanizm ścięcia przekroju przypodporowego 3. Zmiennymi losowymi zadania są własności materiałów: stali $ f_y $ oraz betonu $f_c$, a także rozstaw zbrojenia $s$ oraz obciążenia stałe $G$ oraz zmienne $Q$.

Belka żelbetowa

Rys. P5-1 Belka żelbetowa do przykładu 3 [60]

Pomiędzy wytrzymałością stali i betonu zachodzi korelacja statystyczna mierzona współczynnikiem korelacji $\rho_{b,s}=0,8$.

Nośności przekroju belki dla poszczególnych mechanizmów zniszczenia są następujące:

  1. nośność zbrojenia w zginanym przekroju 1:  $R_1=b \cdot x_{eff}(d-0,5x_{eff})$, gdzie $x_{eff}= \cfrac {A_s \cdot f_y}{b \cdot f_c}$;
  2. nośność betonu w zginanym przekroju 2:      $R_2=0,42 \cdot b \cdot d^2 f_c$;
  3. nośność na ścinanie w przekroju 3 :                $R_3 = \sqrt{ 8 \cdot b \cdot d^2 \cdot A_{s,w} \cdot f_{y,w} \cdot f_{c,t}}$.

Liczba wyżej wymienionych mechanizmów jest liczbą elementów systemu niezawodnościowego,
$n=3$

Siły przekrojowe wynoszą:
moment zginający w środku rozpiętości                 $ S_1=\cfrac {(G+Q) \cdot l^2} {27}$;
siła poprzeczna                                                             $ S_3=\cfrac {(G+Q) l}{2}$

Powyższe związki funkcyjne prowadzą do skorelowania nośności oraz sił przekrojowych, nawet jeśliby zmienne wejściowe były niezależne. Po przeprowadzeniu obliczeń pierwszego rzędu (linearyzacji), otrzymano wartości parametrów statystycznych, zestawione w tab P5-1. Szczegółowych obliczeń w tym zakresie nie przeprowadza się, ponieważ nie są one przedmiotem przykładu. Ze względu na silnie nieliniowe związki pomiędzy zmiennymi sugerujemy, by obliczenia prowadzić metodami symulacyjnymi za pomocą ogólnie dostępnych generatorów liczb losowych i procedur numerycznych, a nie w drodze  przekształceń wzorów.

Tab. P5-1 Parametry statystyczne zmiennych do przykładu 5.

 

Średni współczynnik uogólnionej korelacji ($\ref{94}$) wynosi: $\rho_m= \cfrac{2(0,332+0,371+0,580)}{3\cdot (3-1)}=0,428$

Miarodajny współczynnik korelacji ($\ref{89$) wynosi:

$ \rho = 0,428 \{ 2-[0,428 + \cfrac {(1-0,428) \cdot (3-log3)} {1-0,1 \cdot 0,428^2 \cdot (3-log3)^2 } ] \} \approx 0$

W przykładzie założymy, że zapasy bezpieczeństwa dla poszczególnych mechanizmów $Z_1$, $Z_2$, $Z_3$ mają normalny rozkład prawdopodobieństwa.

Wówczas indeksy niezawodności wynoszą:
$\beta_1=\cfrac {\mu_{Z_1}}{\sigma_{Z_1}} =\cfrac{109}{51,9}=2,10$,
$\beta_2= \cfrac{474}{132}=3,59$,
$\beta_3= \cfrac{127}{55,5}=2,29$.

Z tablic rozkładu normalnego uzyskujemy prawdopodobieństwo niezawodności dla poszczególnych mechanizmów zniszczenia:

$ p_{s1}=\Phi (2,10)= 0,98214$,
$ p_{s2}=\Phi (3,59)=0,99983$,
$ p_{s3}=\Phi (2,29)=0,98899$.

Niezawodność systemu ($\ref{92}$), wynosi:

$ p_s \approx 0,0 \cdot \min \{ p_{s1} ; p_{s2} ; p_{s3} \}+(1-0,0) [1- (1-p_{s1}) \cdot (1-p_{s2}) \cdot (1-p_{s3})]=0,0 +1,0[1-(1-0,98214)(1-0,99983)(1-0,98899)]=0,9999$

Można wykazać, że dokładniejsze oszacowanie niezawodności systemu wskazuje, że jest ona nieco mniejsza wynosi 0,9918.
Niezawodności poszczególnych mechanizmów dokładniej opisuje się krzywymi  Gram-Charlier z uwzględnieniem ekscesu i skośności rozkładu [60] .

Przykład 7 [ Żelbetowa rama portalowa. Metoda uogólnionej korelacji ]

Wyznaczyć niezawodność ramy portalowej (rys.P6-1), złożonej z 8-miu elementów: 1- mechanizm zniszczenia dolnego zbrojenia rygla, 2- mechanizm zniszczenia ściskanego betonu, 3- mechanizm zniszczenia przekroju na ścinanie, 4 – słup,  5, 6 – stopa słupa, 7- kielich słupa, 8 – podłoże gruntowe .

Metoda uogólnionej regresji. Rama portalowa

Rys.P6-1. Żelbetowa rama portalowa , poddana działaniu wiatru i obciążeń pionowych: A- rygiel, B-słup, C-fundament [58]

Niezawodności poszczególnych elementów (mechanizmów zniszczenia) wynoszą:
[$p_{s1};…; p_{s8} $]=[99,8; 99,9; 99,6; 95,1; 92; 95,9; 99,9; 99,7]%, a współczynniki korelacji
[$\rho_{1,2};…\rho_{7,8}$]=[0,38; 0,34; 0,58; 0,8; 0,7; 0,9; 0,8].

Dla poszczególnych podsystemów mamy:

podsystem A (rygiel):
($\ref{94}$) → $\rho_m=(0,39+0,35+0,58)/3=0,44$,
($\ref{89$) → $\rho \approx 0$,
($\ref{92}$) → $p_{sA}=0,998\cdot 0,999\cdot 0,996=0,993$

podsystem B (słup):
($\ref{94}$) → $\rho_m=(0,8+0,7+0,93)/3=0,81$,
($\ref{89$) → $\rho \approx 0,81\{ 2-[0,81+ \cfrac{(1-0,81)(3-log3)}{1-0,1\cdot 0,81^2(3-log2)^2}]\}=0,21$,
($\ref{92}$) → $p_{sB} \approx 0,21 \cdot 0,92+(1-0,21)[1-(1-0,951)(1-0,92)(1-0,959)] \approx 0,9831$

podsystem C (fundamenty):
($\ref{89$) → $\rho \approx 0,8\{ 2-[0,8+ \cfrac{(1-0,8)(3-log 2)}{1-0,1\cdot 0,8^2(3-log2)^2}]\}=0,59$,
($\ref{92}$) → $p_{sB} \approx 0,59\cdot 0,997+(1-0,59)\cdot 0,999 \cdot 0,997 \approx 0,9966$

System (Rama=A+B+C):

Podsystemy są losowo niezależne, więc należy je traktować jako system szeregowy z punktu widzenia niezawodności. Na podstawie formuły (20) mamy:

$p_s=0,993 \cdot 0,9831 \cdot 0,9966=0,9729$.

Przykład 8 [Bikonstrukcja  (sprzężone dźwigary płaskie). Metoda uogólnionej korelacji]

Na prostym przykładzie zespołu kratownic płaskich K1, K2 (prawa, lewa) (rys. P7-1) sprzężonych stężeniami T1 (górne i dolne) oraz T2 (pionowe) przeanalizujemy wpływ stężeń  na niezawodności bikonstrukcji.

Elementarz niezawodności konstrukcji. Bikonstrukcja

Rys. P7-1 Bikonstrukcja: kratownice K1, K2 sprzężone stężeniami T1, T2

Analiza wpływu stężeń na nielosową nośność bikonstrukcji

Mechanizmy zniszczenia ustroju zależą o konfiguracji obciążeń. Dla dominujących obciążeń pionowych kratownice K1 i K2 są obciążone siłami pionowymi w węzłach pasów górnych. W przypadku rozprzężenia ( braku stężeń T1 i T2) mechanizm zniszczenia kratownicy K1 (lub K2) pokazano na rys. Rys P7-2 .

Rys. P7-2. Mechanizm zniszczenia kratownicy K1 pod obciążeniami pionowymi (kratownica przed zniszczeniem – szara, po zniszczeniu -niebieska). Zniszczenie polega na utracie płaskiej postaci zginania

Obraz z rys. P7-2 uzyskano dla kratownicy o wysokości 3 m, rozpiętości 5×3=15 m, obciążonej siłami skupionymi V=23 kN w każdym węźle górnym i równoważnymi siłami poziomymi od imperfekcji H=V/100=0,23 kN i po przeprowadzeniu  obliczeń  2-rzędu $P-\Delta$.

Dla prętów wykonanych z RP 200x100x5-S355 (większy wymiar rury w pionie), czyli o sztywności osiowej

$ EA=2,1 \cdot 10^5 \cdot 28,36 \cdot 10^{-4}=5,96 \cdot 10^2 MN$   (P7-1)

(moduł Younga stali $E=2,1 \cdot 10^5 MPa$ ; pole przekroju dla RP 200x100x5: $A=28,36 cm^2$)

Obliczenia wykazały) (rys. P7-3), że krytycznym punktem konstrukcji jest pas dolny przy podporze, który przy uwzględnieniu zjawisk niestateczności i innych warunków normowych [91] jest pod obciążeniem porównawczym V=23 kN wytężony w  90,9 %.
Oznacza to, że obciążenie można w zwiększyć o 1/90,9%=1,100, czyli do wartości $V=1.1 \cdot 23=25,3 kN$. Graniczny mnożnik obciążenia (nośność konstrukcji ) wynosi:

$\Lambda=1,10$, (P7-2)

Przemieszczenia końca wspornika wynoszą: pionowe $\delta_z= 22 mm$, a boczne $\delta_y=18 \cdot \delta_z$ przy 100x mniejszej sile poziomej. Skrócenie pręta (od spaczenia 2- rzędu) wynosi $\delta_x= \cfrac{\delta_z} {28}$.

Bikonstrukcja,wytężenie

Rys. P7-3. Sprzężone kratownice płaskie: a) stężeniem górnym T1, b) stężeniem czołowym T2, c) stężeniami T1+T2, d) stężeniami T1+T2+T1* (stężone dolne pasy)

W tab. P7-1 zestawiono nośności  bikonstrukcji sprężonej stężeniami w układach z rys. P7-3.

Tab.P7-1. Wpływ stężeń bikonstrukcji na jej nośność $\Lambda$
Bikonstrukcja. Udział stężeń w nośności

Sprzężenie pasów górnych stężeniem T1 prowadzi do wzrostu nośności $\cfrac{2,0} {1,105} = 81%$. Natomiast sprzężenie czoła stężeniem T2 o 63%, a stężeniami T1+T2 o 94%. Sprzężenie pasów dolnych jest niekorzystne z powodu nadmiernego skrępowania bikonstrukcji.

Nośność  bikonstrukcji stężonej przez T1+T2 zwiększyła się dwukrotnie w stosunku do rozprzężonej kratownicy płaskiej. Należy zwrócić uwagę na to, że efekt taki uzyskano  przy obciążeniu każdego węzła identyczną siłą – to znaczy sumaryczne obciążenie bikonstrukcji jest dwa razy większe od obciążenie kratownicy płaskiej.

Wpływ stężeń T1 i T2 na niezawodność bikonstrukcji

Przenalizujemy wpływ stężeń T1 i T2 niezawodności bikonstrukcji.
Przyjmiemy, że informacje o stężeniu o zadanym układzie geometrycznym są zintegrowane w jednej wejściowej zmiennej losowej X, którą jest sztywność osiowa pręta stężenia. Natomiast zmienną wyjściową $Y$ jest nośność konstrukcji $\Lambda$.

$ X=EA$ \quad ; \quad  $Y=\Lambda$    (P7-3)

gdzie:
E jest moduł Younga,
A pole przekroju pręta
$\Lambda$  mnożnik  obciążenia przy którym konstrukcja przestaje spełniać warunki graniczne.

Wpływ stężeń T1

Rozważmy najpierw wpływ tylko stężeń T1.  Brak stężeń T1 oznacza realizację bikonstrukcji ze stężeniami o zerowej sztywność (EA=0). Natomiast realizacje nośności bikonstrukcji o sztywności nominalnej zestawiono w tab.P7-1.

Dla tych dwóch punktów sporządzono nielosową zależność nośności konstrukcji od sztywności stężeń T1 i pokazano ją na rys. P7-4.

X-Y

Rys. P7-4 Zależność nośności konstrukcji $\Lambda$ od sztywności $EA$ stężeń T1

Funkcję stanu granicznego $Y=g (X)$ w tym przypadku opisuje prosta

$ Y=\varphi (X)=1,1+1,5 \cdot 10^{-3} X $               (P7-4)

W przypadku większej liczby punktów obliczeniowych dokładność wyznaczenia zależności  $EA \to \Lambda$ zwiększy się. Funkcję ciągłą w tych przypadkach zaleca się wyznaczać procedurami metody minimów kwadratów (metodami regresji) dla funkcji sklejanych z odcinków parabol. Procedura ogólna będzie przedmiotem innego opracowania. W tym przypadku wyznaczamy podstawowy tok postępowania i nie będziemy rozszerzać rozważań na okoliczności poboczne.

Parametry statystyczne zmiennej wejściowej X=EA, określimy na podstawie publikowanych wyników badań dla modułu Younga oraz pola przekroju profili stalowych [92] :

moduł Younga E:  $\mu_E=2,1 10^5 MPa$; $v_E=1,5%$,
współczynnik zmienności długości ścianki:  $v_l=3%$
współczynnik zmienności grubości ścianki: $v_t=2%$
pole przekroju A:   $\mu_A= 28,36 cm^2$ ( z tablic producenta);  $v_A= \sqrt{4( 3^2\%+2^2\%)}=3,6\%$ (cztery ścianki rury prostokątnej)

sztywność EA:
$ (P7-1) \to $ $\mu_{EA}=5,96 \cdot 10^2 \, kN $;
$v_{EA}=\sqrt{ 1,5^2+3,6^2}=3,6 \%$;
$\sigma_x=v_{EA} \cdot \mu_{EA}= 5,96 \cdot 10^2 \cdot 3,6 \%=0,215 \cdot 10^2 =21,5\, kN $,
Powyżej wyrażenia na współczynniki zmienności funkcji otrzymano w drodze linearyzacji, w sposób analogiczny jak pokazano niżej.

W celu zaprezentowania metody, parametry statystyczne funkcji (P7-4) wyznaczymy metodą linearyzacji mimo, że funkcja jest liniowa i można wyznaczyć je z definicji.

$\varphi(x)^{’} = \cfrac {\partial \varphi(X)}{\partial X}= 1,5 \cdot 10^{-3}$

$\sigma_y^2= [\varphi(0^{’}]^2 \cdot \sigma_x^2=(1,5 \cdot 10^{-3})^2\cdot 70,3^2 = 7,4 \cdot 10^{-3}$

Postępując analogicznie, wyznaczamy parametry losowe funkcji wpływu stężeń. W analizie niezawodności istotne jest uwzględnienie zmienności wpływających czynników, co pozwala na dokładniejsze modelowanie ryzyka awarii. Zastosowanie odpowiednich metod statystycznych pozwala na określenie prawdopodobieństwa wystąpienia niepożądanych zdarzeń, co jest niezbędne w projektowaniu i eksploatacji obiektów inżynieryjnych. Właściwe określenie tych parametrów może znacząco wpłynąć na poprawę bezpieczeństwa i efektywności konstrukcji.

Literatura

  1. Korn T., M. , Matematyka dla pracowników naukowych i inżynierów (Tom. 1, 2), PWN, Warszawa, 1983
  2. PN-EN 1990:2004, Eurokod: Podstawy projektowania konstrukcji
  3. Melnyk M. (1974), Principles of applied statistics. Pergamon Press
  4. Cox D. R., Hinkley D. V. (2000). Theoretical statistics. Chapman & Hall/CRC, 2000
  5. Seber G. A. F., Lee A. J., Linear regression analysis (2nd ed). Wiley-Interscience, 2003
  6. PN-ISO 2394:2000, Ogólne zasady niezawodności konstrukcji budowlanych
  7. IFSC (Ed.),(2010). Model Code 2010 (Vol. 1). International Federation for Structural Concrete
  8. Storey N.,(2010). Safety-critical computer systems (Nachdr.). Prentice Hall
  9. Leveson, N. G. (1995), Safety as a system property. Communications of the ACM, 38(11), 146
  10. Websters M. (Ed.), (1996). Webster’s encyclopedic unabridged dictionary of the Eng-lish language (New deluxe ed). Gramercy Books (Div. of Random House
  11. Frei D. (1977). Sicherheit: Grundfragen d. Weltpolitik (1. Aufl). Kohlhammer
  12. Murzewski, J. (1989). Niezawodność konstrukcji inżynierskich. Arkady
  13. Hasofer, A. M., Lind, N. ., C., (1974). Exact and invariant second-moment code format. Journal of Engineering Mechanics Division ASCE, Vol.100(No EM1/1974), 111–121
  14. Wikipedia. (2016). Bezpieczeństwo.[ https://pl.wikipedia.org/w/index.php?title=Bezpiecze%C5%84stwo&oldid=45884012 ]
  15. Główny Urząd Nadzoru Budowlanego,  Katastrofy budowlane w 2024 roku, Warszawa, lipiec 2025
  16. Department of Defense USA, System Safety. MIL-STD-882E, Standard practice, 2012, [ http://www.system-safety.org/Documents/MIL-STD-882E.pdf]
  17. Rausand, M., Hoyland, A. (2004), System Reliability Theory. Models, Statistical Methods, and Applications. Wiley Interscience
  18. Kapur K. C., Lamberson L. R. (1977), Reliability in engineering design. Wiley
  19. Barlow R. E., Proschan F. (1974). Statistical theory of reliability and life testing: probability models. Holt, Rinehart and Winston
  20. Migdalski J. (Ed.). (1982). Poradnik niezawodności. Podstawy matematyczne, Wydawnictwa Przemysłu Maszynowego WEMA
  21. Cornell C. A. (1969). A Probability Based Structural Code. American Concrete Institute Journal, 66, 974–985
  22. Augusti G., Barattta A. (1972). Limit analysis of structures with stochastic strengths variations. Journal of Structural Mechanics, 1(1), 43–62
  23. Barlow R. E., Proschan F. (1974). Statistical theory of reliability and life testing: Probability models. Holt, Rinehart and Winston
  24. Ditlevsen O. (1979). Narrow reliability bounds for structural systems. Journal of Structural Mechanics., 7(4), 453–472
  25. Żukowski S. (2006), Ocena bezpieczeństwa płaskich konstrukcji prętowych w aspekcie teorii przystosowania. Oficyna Wydawnicza Politechniki Wrocławskiej, [ http://direct.dbc.wroc.pl/Content/1462/zukowski_ocena_bezpieczenstwa.pdf ]
  26. Bobrowski D. (1985). Modele i metody matematyczne niezawodności. Wydawnictwo Naukowo-Techniczne, Warszawa
  27. Załęska-Fornal A. (2006). Miary niezawodnościowej i strukturalnej istotności elementów. Rok XLVII [3(166)], 137–150. [http://yadda.icm.edu.pl/yadda/element/bwmeta1.element.baztech-article-BWM9-0001-0010/c/Zaleska-Fornal_A.pdf ]
  28. Lundberg J.E., Galambos T.V., Load and resistance factor design of composite columns. Structural Safety, 18 (1996), str. 169–177
  29. Razzaq Z., Prabhakaran R.: Load and resistance factor design (LRFD) approach for reinforced-plastic channel beam buckling. Composites: Part B, 27B (1996), str. 361–369
  30. King L., Toutanji H., Vuddandam R.: Load and resistance factor design of fiber reinforced polymer composite bridge deck. Composites: Part B, 43 (2012), str. 673–680
  31. Elishakoff I.: Probabilistic methods in the theory of structures. John Wiley and Sons, Chichester  1983
  32. Breitung K. (1984) Asymptotic approximations for multinormal integrals, J Eng Mech 110:357–366. [ https://doi.org/10.1061/(ASCE)0733-9399(1984)110:3(357)]
  33. Tvedt L., “Two Second-Order Approximations to the Failure Probability—Section on Structural Reliability,” A/S Veritas Research, Hovik, 1984.
  34. Hohenbichler M, Rackwitz R. (1988) Improvement of second-order reliability estimates by importance sampling. J Eng Mech 114:2195–2199. [ https://doi.org/10.1061/(ASCE)0733-9399(1988)114:12(2195)]
  35. Köylüoǧlu HU, Nielsen SRK (1994) New approximations for SORM integrals. Struct Saf 13:235–246. [https://doi.org/10.1016/0167-4730(94)90031-0]
  36. Cai GQ, Elishakoff I (1994) Refined second-order reliability analysis, Struct Saf 14:267–276. [ https://doi.org/10.1016/0167-4730(94)90015-9]
  37. Zhao Y-G, Ono T (1999) New approximations for SORM: part 1. J Eng
    Mech 125:79–85. [ https://doi.org/10.1061/(ASCE)0733-9399(1999)125:1(79)]
  38. Mansour R, Olsson M (2016) Response surface single loop reliabilitybased design optimization with higher-order reliability assessment. StructMultidiscip Optim54:63–79. [ https://doi.org/10.1007/s00158-015-1386-x]
  39. Hu Z, Du X (2018), Saddlepoint approximation reliability method for quadratic functions in normal variables. Struct Saf 71:24–32. [ https://doi.org/10.1016/j.strusafe.2017.11.001]
  40. Park J.W., Lee I.  (2018) A study on computational efficiency improvement of novel SORM using the convolution integration. J Mech Des Trans ASME 140. [https://doi.org/10.1115/1.4038563]
  41. Pugachev V. S. (1984). Probability Theory and Mathematical Statistics for Engineers. Pergamon Press
  42. Pugachev V. S. .Probability Theory and Mathematical Statistics for Engineers. Pergamon Press), 1984
  43. Rosenblatt M , Remarks on a multivariate transformation. Ann Math Stat 23:470–472, (1952
  44. Hohenbichler M, Rackwitz R ,Non-normal dependent vectors in structural safety. ASCE J Eng Mech Div 107:1227–1238 (1981
  45. Nataf A ,Determinaiton des distributions don’t les marges sont donnees. Comput Rendus l’Academie Des Sci Paris 225:42–43, (1962
  46. Liu PL, Der Kiureghian A.,Multivariate distribution models with prescribed marginals and covariances. Probabilistic Eng Mech 1:105–112. (1986)
  47. Lu ZH, Cai CH, Zhao YG, Leng Y, Dong Y ., Normalization of correlated random variables in structural reliability analysis using fourth-moment transformation. Struct Saf 82:101888, (2020)
  48. Ditlevsen, O. Uncertainty modeling with applications to multidimensional civil engineering systems, McGraw-Hill Book Co., Inc.,New York, 1981
  49. Ang, A. H.-S., and Tang, W. H., Probability concepts in engineering planning and design, Vol. I, basic principles. John Wiley and Sons, Inc., New York, 1975
  50. Rackwitz, R., Practical Probabilistic approach to design,  Bull.1l2, Commite European du Beton, Paris, 1976
  51. Madsen, H. 0., Krenk, S., and Lind, N. C, Methods of structural safety. Prentice-Hall, Inc., Englewood Cliffs, N.J., 1986
  52. Melchers, R. E. , Structural reliability: analysis and prediction, Ellis Horwood Ltd., Chichester, West Sussex, England, 1987
  53. Dai, S. H., and Wang, M. O., Reliability analysis in engineering applications. Van Nostrand Reinhold, New York, 1992
  54. Tichy, M., Applied methods of structural reliability. Kluwer Academic Publishers Group, Boston, Mass., 1993
  55. Hu Z., Mansour R., Olsson M., Du X., Second-order reliability methods: a review and comparative study, Structural and Multidisciplinary Optimization 64:3233–3263, (2021
  56. Veneziano, D., Contributions to second moment reliability, Res. Rep. No. R74-33. Dept. of Civ. Engrg., Mass. Inst. of Techno!., Cambridge, Mass., 1974
  57. Low, B.K., and Tang, Wilson H., Efficient reliability evaluation using spreadsheet, J. of Engrg. Mech., ASCE, New York, 123(7), 749-752 (1997
  58. Kudzys A. P., Ocenka nadeznosti zelezobetonnych konstrukcij ( Relaibility estimation of reinforced concrete structures. Mosklas Publisher, Moskva, 1985
  59. Izdatelstvo standartov,  Metodyka rasceta nadeznosti izdelij z ucetom postepennych otkazov. Izdatelstvo standartov, Moskva, 1976
  60. Kudzys A. P., Ocenka nadeznosti zelezobetonnych konstrukcij ( Reliability estimation of reinforced concrete structures. Mosklas Publisher, Moskva, 1985
  61. Box G.E.P.; Wilson, K.B., On the Experimental Attainment of Optimum Conditions. Journal of the Royal Statistical Society, Series B13 (1): 1–45,1951
  62. Harr, M.E. ,Probabilistic Estimates for Multivariate Models, Journal of the Engineering Mechanics Division, ASCE., 1967
  63. Harr, M.E. , “Mechanics of Particulate Media: A Probabilistic Approach.” McGraw-Hill,, 1977
  64. Harr, M.E. Reliability-Based Design in Civil Engineering. McGraw-Hill.,1984 / 1987
  65. Baker, M.J., “Structural Reliability and the Second-Moment Method, Journal of the Structural Division, ASCE., ,1975
  66. Baker, M.J.,  Thoft-Christensen, P., Structural Reliability Theory and Its Applications. Springer. ((1982
  67. Thoft-Christensen, P., & Baker, M. J. , Structural Reliability Theory.” Wiley, 1982
  68. Rosenblueth, E..General Two-Point Estimates in Probabilistic Design.ASCE, J. Eng. Mech. ,1986
  69. Marek P., Guštar M., Anagnos T. (1995). Simulation-Based Reliability Assessment for Structural Engineers. CRC Press, Inc.
  70. Jermakow S. M. (1976). Metoda Monte Carlo i zagadnienia pokrewne. PWN, Warszawa
  71. Buslenko N. P., Golenko D. I., Sobol I. M., Sragowicz W. G., Szrejder J. A. (1967). Metoda Monte Carlo (I). Państwowe Wydawnictwo Naukowe, warszawa
  72. Kopociński B. (1977). Zarys teorii odnowy i niezawodności. PWN, Warszawa
  73. Gwóźdź M., Machowski A. (2011). Wybrane badania i obliczenia konstrukcji budow-lanych metodami probabilistycznymi. Wydawnictwo Politechniki Krakowskiej, Kraków
  74. Hasofer A. M., Lind, N., C. (1974), Exact and invariant second-moment code for-mat. Journal of Engineering Mechanics Division ASCE, Vol.100(No EM1/1974), 111–121
  75. Buslenko, N. P. (1978). Modelirowanije zloznych sistem. Izdatelstvo Nauka
  76. Jones O., Maillardet R., Robinson A. (2009). Introduction to scientific programming and simulation using R. CRC Press
  77. Stocki R. (2010). Analiza niezawodności i optymalizacja odpornościowa złożonych konstrukcji i procesów technologicznych, Praca habilitacyjna, IPPT PAN, Warszawa
  78. Melchers R. E. (1992). Simulation in time-invariant and time-variant Reliability Prob-lems. In R. Rackwitz & P. Thoft-Christensen (Eds.), Reliability and Optimization of Structural Systems 91 (Vol. 76, pp. 39–82). Springer Berlin Heidel-berg. http://www.springerlink.com/index/10.1007/978-3-642-84753-0_3
  79. McKay M.,D., Beckman R., J., Conover W., J., (1979), Comparison of Three Methods for Selecting Values of Input Variables in the Analysis of Output from a Computer Code, Technometrics, 21, (2), pp. 239-245
  80. Stocki R., Liefvendahl M. (2006), A study on algorithms for optimization of Latin hy-percubes. Journal of Statistical Planning and Inference, 136(9), 3231–3247
  81. Grigoriu M. (2012), Stochastic Systems. Uncertainty Quantification and Propagation. Springer
  82. Ávila da Silva Jr. C. R., Beck A. T. (2015). New Method for efficient Monte Carlo – Neumann solution of linear stochastic systems. 40, 90–96
  83. Ávila da Silva Jr. C. R., Beck A. T. (2015), Efficient bounds for the Monte Carlo – Neumann solution of stochastic thermo-elasticity problems. International Journal of Solids and Structures, 58, 136–145
  84. O’Hagan A. (2006), Bayesian analysis of computer code outputs: a tutorial. Reliability Engineering and System Safety, 91, 1290–1300
  85. Franken, P., Konig, D., Arndt, U., & Schmidt, V. (1982). Queues and point processes. Wiley
  86. Kovalenko, I. N., & Kuznetsov, N. I. (1988). Metody rascheta vysokonadezhnykh sistem (Nauch. izd). Radio i sviaz
  87. PN-EN 1992-1+AC+Ap 1,2,3: 2008, Projektowanie konstrukcji z betonu, Część 1-1: Reguły ogólne i reguły dla budynków
  88. PN-EN 1990:2004, Eurokod: Podstawy projektowania konstrukcji
  89. Ditlevsen, O., & Madsen, H. O. (1996). Structural reliability methods. Wiley
  90. Rackwitz R, Flessler B (1978) Structural reliability under combined random
    load sequences. Comput Struct 9:489–494. [ https://doi.org/10.1016/0045-7949(78)90046-9]
  91. PN-EN 1993-1-1+A1:2006, Eurokod 3. Projektowanie konstrukcji stalowych, Część 1-1: Reguły ogólne i reguły dla budynków
  92. Mrazik A. (1987). Teoria Spolahlivosti ocelovych konstrukcii. VEDA Vydatelstvo slovenskej akadamie VIED

________________________________

Comments : 0
O autorze
* dr inż. Leszek Chodor. Architekt i Inżynier Konstruktor; Rzeczoznawca budowlany. Autor wielu projektów budowli, w tym nagrodzonych w konkursach krajowych i zagranicznych, a między innymi: projektu wykonawczego konstrukcji budynku głównego Centrum "Manufaktura" w Łodzi, projektu budowlanego konstrukcji budynku PSE w Konstancinie Bielawa, projektów konstrukcji "Cersanit" ( Starachowice, Wałbrzych, Nowograd Wołyński-Ukraina), projektu konstrukcji hali widowiskowo-sportowej Arena Szczecin Autor kilkudziesięciu prac naukowych z zakresu teorii konstrukcji budowlanych, architektury oraz platformy BIM w projektowaniu.

Wyślij

Translate »