Leszek Chodor, 23 maj 2014
18.06. 2016 ; 29-07-2025 dodanie przykładów
06.11. 2025 scalenie artykułów i naprobwa po poważnej awarii portalu.
11-12-2025 Zmiana układu artykułu i dodanie nowych przykładów
02-01-2026 Wprowadzenie metody dynemaicznej BSRM
Artukuł w trakcie edycji
W przypadku nieczytelnych treści, proszę powiadomić: leszek@chodor.co
W ciągu ostatnich 24 godzin z artykułu korzystało 30 Czytelników
Niezawodność jest zdolnością obiektu do pełnienia wymaganej funkcji przez zaplanowany czas użytkowania. Awarie, rozumiane jako utrata niezawodności, stanowią jedną z przyczyn zagrożeń bezpieczeństwa, jednak nie każda awaria prowadzi do poważnych skutków lub zagrożenia. Z tego względu projektowanie bezpieczne łączy działania ukierunkowane na zwiększanie niezawodności (redukcję częstości awarii) z zastosowaniem barier bezpieczeństwa, których celem jest ograniczenie skutków awarii. W niniejszym artykule rozpatrywany jest przypadek skrajny, w którym utrata niezawodności konstrukcji budowlanej może prowadzić do katastrofalnych konsekwencji dla życia ludzkiego oraz środowiska. W takim ujęciu zasadne jest przyjęcie równoważności pojęć niezawodności i bezpieczeństwa konstrukcji budowlanej, co jest zgodne z podejściem prezentowanym w literaturze przedmiotu .
Konstrukcje inżynierskie są systemami o bardzo wysokich wymaganiach niezawodnościowych, których praca związana jest z obszarem skrajnych wartości („ogonów”) rozkładów probabilistycznych zmiennych losowych opisujących obciążenia, nośność oraz warunki eksploatacji. Jednocześnie są to układy złożone, które z punktu widzenia teorii niezawodności mogą być modelowane jako złożone systemy szeregowo-równoległe, a także są systemami o stosunkowo małej bazie danych statystycznych, wobec realizacji jednostkowej obiektów, zróżnicowanych rozwiązaniami architektonicznymi, i środowiskowymi, technologiami projektowania i wykonania, a nawet przybliżonymi deterministycznymi modelami obliczeniowymi. W praktyce inżynierskiej metody probabilistyczne o bardzo wysokiej dokładności matematycznej często prowadzą do pozornej precyzji, nieuzasadnionej jakością danych materiałowych, geometrycznych i obciążeniowych oraz jakością wyników z modelowania duża liczbą elementów skończonych.
Celem pracy nie jest maksymalizacja matematycznej dokładności obliczeń niezawodności, lecz przedstawienie metod adekwatnych do jakości danych wejściowych i rzeczywistej dokładności modeli obliczeniowych konstrukcji budowlanych.
W pracy podano podstawy dynamicznej metody szacowania niezawodności konstrukcji BSRM ( Binarna Metoda Niezawodności 2 Rzędu) – ang Binary Second-order Reliability Method . W metodzie BSRM zostosowano algorytm dekorelacji Pugacheva, która w przeciwieństwie do metod stricte numerycznych, umożliwia w modelu dynamicznym nie tylko efektywne przekształcenie zmiennych losowych, lecz także interpretację zaniku i redukcji informacji losowej w czasie, co czyni ją szczególnie użyteczną w analizie procesów degradacyjnych i ewolucyjnych.
Rozważania zilustrowano przykładami liczbowymi, a wnioski sformułowano z punktu widzenia praktyki projektanta konstruktora.
Część I
Tablice projektanta. Definicje
Poniżej zestawiono tablice, które mogą być pomocne w praktycznym projektowaniu konstrukcji z uwzględnieniem kryteriów niezawodności, a także będą wykorzystywane w dalszych analizach przedstawionych w artykule.
Zmienne losowe
W tab. 1 zestawiono podstawowe pojęcia i parametry zmiennych losowych stosowane w artykule.
Tab. 1. Parametry zmiennych losowych
\[ \begin{array}{l|l|l|l}
\hline \text{Nazwa} & \text{Oznaczenie} & \text{Definicja} & \text{Uwagi} \\
\hline (1) & (2) & (3) & (4) \\
\hline \text{Dystrybuanta} & F_X(x)& F_X(x)=\operatorname{Prob}\{X\le x\}& \lim_{x\to-\infty}F_X(x)=0,\ \lim_{x\to+\infty}F_X(x)=1 \\
\hline \text{Gęstość rozkładu} & f_X(x) & F_X(x)=\displaystyle\int_{-\infty}^{x} f_X(t)\,dt & f_X(x)\ge 0,\ \displaystyle\int_{-\infty}^{+\infty} f_X(x)\,dx=1 \\
\hline \text{p-kwantyl} & x_p & x_p=F_X^{-1}(p) & F_X(x_p)=p,\ \text{wartość zmiennej rzędu } p \\
\hline \text{Dominanta}
& x_d & x_d=\arg\max_x f_X(x)& \text{najczęściej występująca wartość} \\
\hline \text{Wartość oczekiwana}& \mathbb{E}[X] & \mathbb{E}[X]=\displaystyle\int_{-\infty}^{+\infty} x\,f_X(x)\,dx& \text{średnia} \\
\hline\text{Moment rzędu } k & m_k & m_k=\mathbb{E}[X^k]& \text{jeżeli istnieje} \\
\hline \text{Moment centralny rzędu } k & \mu_k & \mu_k=\mathbb{E}[(X-\mathbb{E}[X])^k] & \mu_2=\operatorname{Var}(X) \\
\hline \text{Wariancja} & \operatorname{Var}(X) & \operatorname{Var}(X)=\mathbb{E}[X^2]-\mathbb{E}^2[X] & \operatorname{Var}(X)=0\Rightarrow X=\mathbb{E}[X] \\
\hline \text{Współczynnik zmienności} & v_X & v_X=\dfrac{\sigma_X}{\mathbb{E}[X]}& \text{miara względna} \\
\hline \text{Współczynnik skośności}& \gamma_1 & \gamma_1=\dfrac{\mu_3}{\sigma_X^3} & \text{asymetria rozkładu} \\
\hline \text{Współczynnik spłaszczenia} & \gamma_2 & \gamma_2=\dfrac{\mu_4}{\sigma_X^4} & \text{nadmiarowe: } \gamma_2-3 \\
\hline \text{Warunkowa wartość oczekiwana} & \mathbb{E}[Y\mid X] & \mathbb{E}[Y\mid X=x]=\displaystyle\int_{-\infty}^{+\infty} y\,f_{Y|X}(y|x)\,dy
& \text{zależna od } x \\
\hline \end{array}\]
Uwagi do Tab. 1:
1) Ciągłość / dyskretność
W przypadku zmiennych losowych odcinkami ciągłych całki należy rozumieć jako sumy całek po przedziałach ciągłości. Dla zmiennych dyskretnych całki zastępuje się odpowiednimi sumami.
2) Jednoznaczność opisu rozkładu
Jeżeli istnieje gęstość rozkładu $f_X(x)$, to jednoznacznie wyznacza ona rozkład zmiennej losowej, a tym samym jej dystrybuantę $F_X(x)$.
3) Istnienie momentów
Momenty rozkładu (wartość oczekiwana, wariancja, momenty wyższych rzędów) istnieją tylko wtedy, gdy odpowiadające im całki są zbieżne.
4) Interpretacja wariancji
Jeżeli $\operatorname{Var}(X)=0$, to zmienna losowa $X$ jest prawie na pewno stała, tj. $\operatorname{Pr}\{X=\mathbb{E}[X]\}=1$.
5) Kwantyle i zastosowania inżynierskie
Kwantyle rozkładu są podstawowym narzędziem w analizach niezawodności konstrukcji. W szczególności współczynnik niezawodności $\beta$ (w tym współczynnik Hasofera-Linda $\beta_{HL}$ oraz stosowany w pracy sprowadzony $\widetilde{\beta}$ ) jest kwantylem rozkładu normalnego.
6) Współczynniki kształtu rozkładu
Współczynniki skośności i spłaszczenia są bezwymiarowymi miarami kształtu rozkładu i są wykorzystywane m.in. w metodzie momentów oraz w analizie ekstremów.
7) Warunkowa wartość oczekiwana
Warunkowa wartość oczekiwana stanowi podstawę opisu zależności stochastycznych oraz analizy systemów losowych i procesów niezawodności.
W tab 2 . zestawiono najczęściej stosowane w budownictwie rozkłady zmiennych losowych ciągłych.
Tab. 2 Wybrane rozkłady jednowymiarowych zmiennych losowych ciągłych, stosowane w teorii niezawodności konstrukcji budowlanych
\[ \begin{array}{l|l|l|l|l|l|l}
\hline \text{Typ rozkładu} & \text{Gęstość} & \text{Dystrybuanta} & \text{Oczekiwana} & \text{Wariancja} & \text{Asymetria} & \text{Spłaszczenie} \\
\hline \text{Typ rozkładu} & f_X(x) & F_X(x) & \mathbb{E}[X] & \operatorname{Var}(X) & \operatorname{Skew}[X] & \operatorname{Kurt}[X] \\
\hline
(1) & (2) & (3) & (4) & (5) & (6) & (7) \\
\hline \text{Normalny (Gauss)} & \dfrac{1}{\sigma\sqrt{2\pi}}\exp\!\left(-\dfrac{(x-\mu)^2}{2\sigma^2}\right) & \Phi\!\left(\dfrac{x-\mu}{\sigma}\right) & \mu & \sigma^2 & 0 & 0 \\
\hline \text{Gauss ucięty }[a,b] & \dfrac{f_X(x)}{\Phi\!\left(\dfrac{b-\mu}{\sigma}\right)-\Phi\!\left(\dfrac{a-\mu}{\sigma}\right)} & \dfrac{\Phi\!\left(\dfrac{x-\mu}{\sigma}\right)-\Phi\!\left(\dfrac{a-\mu}{\sigma}\right)}{\Phi\!\left(\dfrac{b-\mu}{\sigma}\right)-\Phi\!\left(\dfrac{a-\mu}{\sigma}\right)} & \text{z definicji} & \text{z definicji} & \neq 0 & \neq 0 \\
\hline \text{Log-normalny} & \dfrac{1}{x\sigma\sqrt{2\pi}}\exp\!\left(-\dfrac{(\ln x-\mu)^2}{2\sigma^2}\right) & \Phi\!\left(\dfrac{\ln x-\mu}{\sigma}\right) & \exp\!\left(\mu+\dfrac{\sigma^2}{2}\right) & \left(e^{\sigma^2}-1\right)e^{2\mu+\sigma^2} & \neq 0 & \neq 0 \\
\hline \text{ Gamma }(k,\theta) & \dfrac{1}{\Gamma(k)\theta^k}x^{k-1}e^{-x/\theta} & \dfrac{\gamma(k,x/\theta)}{\Gamma(k)} & k\theta & k\theta^2 & \dfrac{2}{\sqrt{k}} & \dfrac{10}{k} \\
\hline \text{Beta }(\alpha,\beta) & \dfrac{1}{B(\alpha,\beta)}x^{\alpha-1}(1-x)^{\beta-1} & \dfrac{B(x;\alpha,\beta)}{B(\alpha,\beta)} & \dfrac{\alpha}{\alpha+\beta} & V_B^{(7)} & S_B^{(7)} & K_B^{(7)} \\
\hline \text{Gumbel max} & \dfrac{1}{\beta}\exp(-z-e^{-z}) & \exp(-e^{-z}) & \alpha + C_E\beta & \dfrac{\pi^2}{10}\beta^2 & 1{,}139547 & 2{,}4 \\
\hline \text{Gumbel min} & \dfrac{1}{\beta}\exp(-z-e^{-z}) & 1-\exp(-e^{z}) & \alpha – C_E\beta & \dfrac{\pi^2}{10}\beta^2 & -1{,}139547 & 2{,}4 \\
\hline \text{Weibull min }(\gamma) & \dfrac{\gamma}{\beta}\left(\dfrac{x}{\beta}\right)^{\gamma-1}\exp\!\left[-\left(\dfrac{x}{\beta}\right)^{\gamma}\right] & 1-\exp\!\left[-\left(\dfrac{x}{\beta}\right)^{\gamma}\right] & \beta\,\Gamma\!\left(1+\dfrac{1}{\gamma}\right) & V_W^{(8)} & S_W^{(8)} & K_W^{(8)} \\
\hline \text{Pareto }(x_m,\alpha) & \dfrac{\alpha x_m^\alpha}{x^{\alpha+1}},\ x\ge x_m & 1-\left(\dfrac{x_m}{x}\right)^\alpha & \dfrac{\alpha x_m}{\alpha-1},\ \alpha>1 & V_P^{(9)} & S_P^{(9)} & \infty\ (\alpha\le 4) \\
\hline \end{array} \]
Uwagi do Tab.2 :
1) Symbole $\mu,\,\sigma,\,\alpha,\,\beta,\,\gamma$
oznaczają parametry rozkładów prawdopodobieństwa. Są to parametry statystyczne zmiennych losowych i nie mają bezpośredniej interpretacji niezawodnościowej; w szczególności nie są miarami bezpieczeństwa ani niezawodności konstrukcji. Parametry te służą wyłącznie do opisu kształtu i skali rozkładów zmiennych losowych oraz do ich transformacji probabilistycznych. Miary niezawodności, w tym współczynnik niezawodności $\beta$, mają odmienny charakter i są definiowane niezależnie, jako wielkości geometryczne w przestrzeni zmiennych losowych (np. w sensie Hasofera–Linda), a nie jako parametry rozkładów prawdopodobieństwa,
2) Definicje podano dla zmiennych losowych ciągłych; dla zmiennych dyskretnych całki należy zastąpić odpowiednimi sumami, a gęstości – funkcjami masy prawdopodobieństwa,
3) Funkcja Laplace’a: (standaryzowana dystrybuanta rozkładu normalnego) $\Phi(x)=\dfrac{1}{\sqrt{2\pi}}\int_{-\infty}^{x} e^{-\xi^2/2}\,d\xi$,
4) Funkcja gamma: $ \Gamma(x+1)=\int_{0}^{\infty} e^{-\xi}\,\xi^x\,d\xi, \qquad x>-1$,
5) Funkcja beta: $B(\alpha+1,\beta+1)=\int_{0}^{1}(1-x)^{\beta}x^{\alpha}\,dx =\dfrac{\Gamma(\alpha+1) \Gamma(\beta+1)}{\Gamma (\alpha+\beta+2)}$,
6) Stała Eulera–Mascheroniego $C_E = 0{,}5772156649\ldots $
7) Dla rozkładu Beta:
$V_B=\dfrac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}$ ; $ S_B=\dfrac{2(\beta-\alpha)\sqrt{\alpha+\beta+1}}{(\alpha+\beta+2)\sqrt{\alpha\beta}}$ ; $K_B=6\,\dfrac{\alpha^3-\alpha^2(2\beta-1)+\beta^2(\beta-1)-2\alpha\beta(\beta+2)}{\alpha\beta(\alpha+\beta+2)(\alpha+\beta+3)}$,
8) Dla rozkładu Weibulla (minimum):
$V_W=\beta^2\!\left[\Gamma\!\left(1+\dfrac{2}{\gamma}\right)-\Gamma^2\!\left(1+\dfrac{1}{\gamma}\right)\right]$ ; $S_W= \dfrac{\Gamma\!\left(1+\dfrac{7}{\gamma}\right) -3\Gamma\!\left(1+\dfrac{1}{\gamma}\right)\Gamma\!\left(1+\dfrac{2}{\gamma}\right) +2\Gamma^3\!\left(1+\dfrac{1}{\gamma}\right)}{\left[ \Gamma\!\left(1+\dfrac{2}{\gamma}\right)-\Gamma^2\!\left(1+\dfrac{1}{\gamma}\right)\right]^{3/2}}$ ; $ K_W= \dfrac{ \Gamma\!\left(1+\dfrac{8}{\gamma}\right) -4\Gamma\!\left(1+\dfrac{1}{\gamma}\right)\Gamma\!\left(1+\dfrac{7}{\gamma}\right) +6\Gamma^2\!\left(1+\dfrac{1}{\gamma}\right)\Gamma \left(1+\dfrac{2}{\gamma}\right) -3\Gamma^4\!\left(1+\dfrac{1}{\gamma}\right)}{\left[\Gamma\!\left(1+\dfrac{2}{\gamma}\right)-\Gamma^2\!\left(1+\dfrac{1}{\gamma}\right) \right]^2}-3 $,
9) Dla rozkładu Pareto:
$ V_P=\dfrac{\alpha x_m^2}{(\alpha-1)^2(\alpha-2)}, \qquad \alpha>2,$; $ S_P=\dfrac{2(\alpha+1)}{\alpha-3}, \qquad \alpha>3$;
10) Dla rozkładów o ciężkich ogonach (np. Pareto, Weibull dla małych wartości $\gamma$) momenty wyższych rzędów mogą nie istnieć, co ogranicza stosowalność metod opartych wyłącznie na momentach.
11) W analizach niezawodności konstrukcji parametry rozkładów i ich momenty pełnią rolę pośrednią i pomocniczą; zasadniczą miarą bezpieczeństwa pozostaje współczynnik niezawodności $\beta$,
interpretowany geometrycznie jako odległość punktu najbardziej prawdopodobnego zniszczenia od początku układu w przestrzeni zmiennych znormalizowanych.
12) Tab. 2 ma charakter opisowy i przygotowawczy; służy do doboru modeli probabilistycznych przed transformacją do przestrzeni normalnej oraz dalszą analizą metodami FORM/SORM.
Definicja zastępczego współczynnika niezawodności
Definicja zastępczego prawdopodobieństwa przetrwania została przedstawiona wcześniej w bloku definicji, w ramach przygotowania do wprowadzenia dynamicznego modelu niezawodności konstrukcji, w którym geometria przestrzeni losowej ma charakter pierwotny, natomiast modele probabilistyczne pełnią rolę wtórną i narzędziową. Oznacza to, że zastępczy współczynnik niezawodności $\widetilde{\beta}$ jest definiowany niezależnie od wyboru konkretnego rozkładu prawdopodobieństwa, a dopiero na dalszym etapie wiązany z modelem probabilistycznym poprzez interpretację zastępczego prawdopodobieństwa przetrwania $\widetilde{p}_s$ (\ref{2}). Takie podejście zapobiega utożsamianiu miar niezawodności z parametrami rozkładów statystycznych oraz umożliwia spójne porównywanie różnych modeli (addytywnych, multiplikatywnych, ekstremalnych i degradacyjnych) w jednej, wspólnej skali geometrycznej.
Zastępczy współczynnik niezawodności $\widetilde{\beta}$, rozumiany jako pierwotna, geometryczna miara niezawodności, definiowany jest w standaryzowanej przestrzeni Gaussa, niezależnie od konkretnego modelu probabilistycznego zmiennych losowych. Współczynnik ten stanowi miarę porównawczą, umożliwiającą jednoznaczne odniesienie różnych modeli probabilistycznych do wspólnej skali. Definiuje się go jako kwantyl standaryzowanego rozkładu normalnego odpowiadający zastępczemu prawdopodobieństwu przetrwania $\widetilde{p}_s$ w postaci
$$\begin{equation} \widetilde{\beta} \stackrel{\rm def}{=} \Phi^{-1}(\widetilde{p}_s) \label{1}\end{equation}$$
a równoważnie
$$ \begin{equation} \widetilde{p}_s = \stackrel{\rm def}{=} \Phi(\widetilde{\beta}) \label{2} \end{equation}$$
gdzie $\Phi(\cdot)$ oznacza dystrybuanta standaryzowanego rozkładu normalnego
Wielkości oznaczone tyldą, tj. $\widetilde{\beta}$ oraz $\widetilde{p}_s$, służą wyłącznie do porównań pomiędzy różnymi modelami probabilistycznymi i nie są parametrami żadnego z rozkładów prawdopodobieństwa zestawionych w tab.2.
Zastępcze a modelowe prawdopodobieństwo przetrwania
Modelowe prawdopodobieństwo przetrwania $p_s$ wynika bezpośrednio z przyjętego teoretycznego rozkładu prawdopodobieństwa zmiennej losowej (Gaussa, log-normalnego, Weibulla, Gumbela, GEV itp.), z jego parametrów oraz z naturalnej interpretacji fizycznej danego modelu. Zastępcze prawdopodobieństwo przetrwania $\widetilde{p}_s$ jest prawdopodobieństwem przekształconym lub zinterpretowanym w taki sposób, aby mogło być jednoznacznie odniesione do wspólnej skali Gaussa i użyte do definicji współczynnika niezawodności $\widetilde{\beta}$. Wielkość $\widetilde{p}_s$ nie jest wielkością wolną od modelu, lecz wielkością unifikującą różne modele probabilistyczne na poziomie oceny niezawodności.
W najczęściej stosowanych, nieuciętych rozkładach prawdopodobieństwa zachodzi $\widetilde{p}_s = p_s$, jednak równość ta nie ma charakteru ogólnego i nie obowiązuje w przypadku rozkładów uciętych, ekstremalnych lub wymagających renormalizacji dystrybuanty.
Relacja do klasycznych współczynników niezawodności
Klasyczny (modelowy) współczynnik niezawodności
$$ \begin{equation} \beta \stackrel{\rm def}{=}\Phi^{-1}(p_s) \label{3} \end{equation}$$
jest miarą niezawodności w przestrzeni normalnej, stosowaną w metodach FORM/SORM, i nie jest parametrem żadnego z rozkładów prawdopodobieństwa.
Współczynnik niezawodności Hasofera–Linda $\beta_{HL}$ ($\ref{67}$) jest natomiast wielkością ściśle geometryczną, zdefiniowaną jako odległość punktu najbardziej prawdopodobnego zniszczenia od początku układu współrzędnych w przestrzeni zmiennych standaryzowanych. Pojawia się on dopiero na etapie analizy niezawodności systemu i jest wynikiem rozwiązania zadania optymalizacyjnego w metodzie FORM.
Rozkłady prawdopodobieństwa a niezawodność
Tab. 3 zestawia wybrane rozkłady prawdopodobieństwa w kontekście niezawodności oraz relacje umożliwiające wyznaczenie zastępczego prawdopodobieństwa przetrwania $\tilde{p}_s$ dla każdego z nich. Celem tego zestawienia jest pokazanie, że niezależnie od przyjętego modelu probabilistycznego możliwe jest sprowadzenie opisu niezawodności do jednej, geometrycznej miary $\tilde{\beta}$, pod warunkiem poprawnej interpretacji $\tilde{p}_s$ oraz – w niektórych przypadkach – odpowiedniej renormalizacji dystrybuanty. Tablica ma charakter narzędzia inżynierskiego i służy do uporządkowania interpretacji probabilistycznych przed właściwą analizą niezawodności konstrukcji.
Tab. 3. Rozkłady prawdopodobieństwa a niezawodność
\[
\begin{array}{|l|l|l|c|c|}
\hline
\textbf{Metoda} & \textbf{Idea / transformacja} & \textbf{Typowe zastosowanie} & \textbf{Dokł.} & \textbf{Koszt} \\ \hline
\text{FORM} & \text{Liniowa aproksymacja } g(\mathbf{X}) \text{ w MPP} & \text{Analiza inżynierska, szybkie oszacowania} & \star\star\star\star & \star\star\star\star\star \\ \hline
\text{SORM} & \text{Krzywizna } g(\mathbf{X}) \text{ (III rząd)} & \text{Nieliniowe problemy } g, \text{ większa dokładność} & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{MC (klasyczne)} & \text{Symulacja losowa} & \text{Weryfikacja, złożone } g(\mathbf{X}) & \star\star\star\star\star & \star\star \\ \hline
\text{MC szybkie (IS, Subset)} & \text{Próbkowanie w obszarze awarii} & \text{Rzadkie zdarzenia } (\beta>4) & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{RSM} & \text{Meta-model } g(\mathbf{X}) & \text{Optymalizacja, analiza wstępna} & \star\star\star & \star\star\star\star\star \\ \hline
\text{Nataf / Copula Gaussa} & \text{Normalizacja marginesów + korelacja} & \text{FORM/SORM (standard)} & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{Rosenblatt} & \text{Transformacja warunkowa (dokładna)} & \text{Analizy referencyjne} & \star\star\star\star\star & \star\star\star \\ \hline
\text{Rank}\rightarrow\text{Gauss} & \text{Rangi }\rightarrow\text{ kwantyle } \mathcal{N}(0,1) & \text{Pola losowe} & \star\star\star\star & \star\star\star\star\star \\ \hline
\text{K–L + normalizacja} & \text{Dekorelacja pola + mapowanie } \mathcal{N}(0,1) & \text{Stochastyczna FEM} & \star\star\star & \star\star\star\star \\ \hline
\text{Kolokacja Murzewski} & \text{Dopasowanie lokalne w NPP / }\mu & \text{Zastosowania inżynierskie} & \star\star\star & \star\star\star\star \\ \hline
\end{array}
\]
Uwagi do Tab. 3
1)W każdym rozkładzie zestawionym w tab. 3 przejście do skali niezawodności $\tilde{\beta}$ odbywa się poprzez relacje $\tilde{\beta}=\Phi^{-1}(\tilde{p}_s)$ oraz równoważnie $\tilde{p}_s=\Phi(\tilde{\beta})$, zgodnie z definicjami ($$\ref{1}$) –($\ref {2}$) .
2) Skala $\tilde{\beta}$ jest wspólną skalą porównawczą niezależną od postaci rozkładu zmiennej losowej i ma charakter zastępczy oraz porównawczy. Umożliwia sprowadzenie różnych modeli probabilistycznych do jednej osi odniesienia, lecz nie jest tożsama z indeksem Hasofera–Linda $\beta_{HL}$, który pojawia się dopiero po zdefiniowaniu funkcji granicznej i transformacji do przestrzeni normalnej w metodzie FORM.
3) Współczynnik $\tilde{\beta}$, zdefiniowany wzorem ($\ref{1}$) jest jedyną miarą niezawodności, stosowaną w niniejszym opracowaniu. Wszystkie pozostałe parametry pojawiające się w tab. 3 mają charakter pomocniczy, opisowy lub interpretacyjny i nie stanowią miar niezawodności.
4) Rozróżnienie pomiędzy $\tilde{\beta}$ oraz $\beta_{HL}$ jest ważne dla uniknięcia błędnych interpretacji normowych i modelowych, w szczególności utożsamiania miar geometrycznych niezawodności z parametrami rozkładów prawdopodobieństwa.
5) Prawdopodobieństwo przetrwania $\tilde{p}s$ nie jest wielkością uniwersalną w sensie matematycznym i jego interpretacja zależy od typu rozkładu:
- dla rozkładu normalnego (Gaussa) $\tilde{p}s$ jest bezpośrednim argumentem odwrotnej dystrybuanty Gaussa, tj. $\beta=\Phi^{-1}(p_s)$,
- dla rozkładów uciętych $\tilde{p}s$ ma charakter warunkowy i odnosi się wyłącznie do populacji ograniczonej d1o przedziału $[a,b]$, co wymaga renormalizacji dystrybuanty:
- dla ucięcia jednostronnego zachodzi $\tilde{p}{s,1}=(1-\Phi(\beta))/(1-\Phi(\beta_c))$,
- dla ucięcia dwustronnego $\tilde{p}{s,2}=(\Phi(\beta_u)-\Phi(\beta_l))/(\Phi(\beta{cu}) – \Phi(\beta_{cl}))$.
Dla rozkładu Weibulla (minima) $\tilde{p}_s$ opisuje proces degradacji w czasie i przyjmuje postać $\tilde{p}_s=\exp(-\beta_W^{\gamma})$, gdzie parametr kształtu $\gamma$ kontroluje tempo utraty niezawodności.
Dla rozkładów ekstremalnych (Gumbel, GEV, Pareto) $\tilde{p}_s$ odnosi się do rzadkich zdarzeń środowiskowych w zadanym okresie odniesienia i nie jest bezpośrednio kwantylem rozkładu normalnego.
6) Renormalizacja dystrybuanty jest wymagana wyłącznie w przypadkach, gdy rozkład jest jawnie ucięty lub interpretowany warunkowo, na przykład z powodu ograniczeń fizycznych, normowych lub technologicznych. Dla rozkładów nieuciętych, takich jak Gauss, log-normalny, Weibull, Gumbel, GEV czy Pareto, renormalizacja nie jest wymagana.
7) Tablica 3 nie służy do klasyfikacji rozkładów jako „lepszych” lub „gorszych”, lecz do pokazania, że niezależnie od przyjętego modelu probabilistycznego możliwe jest sprowadzenie opisu niezawodności do jednej, geometrycznej miary $\tilde{\beta}$ w przestrzeni Gaussa.
8) Przedstawione informacje mają charakter pomocniczy i mają ułatwić inżynierowi wybór rozkładu zmiennej stanu zależnie od jej natury fizycznej, zwłaszcza w przypadku braku lub małej liczebności próby. Ostateczny wybór rozkładu probabilistycznego powinien być każdorazowo oparty na danych pomiarowych i wnioskowaniu statystycznym; w przypadku braku danych statystycznych wybór rozkładu zmiennej stanu może być dokonany orientacyjnie na podstawie tab. 3.
Normalny rozkład prawdopodobieństwa – informacje dodatkowe
Na rys. 1 pokazano rozkład normalny zmiennej $X$. Kolorem żółtym oznaczono dystrybuantę dla wartości $x$ tej zmiennej .

Rys.1 Normalny rozkład prawdopodobieństwa.- funkcja gęstości $f_X(x)$
W obliczeniach probabilistycznych poziomu drugiego oryginalny rozkład zmiennych stanu $X_i$, skorelowanych i o dowolnych rozkładach brzegowych, transformuje się (w sensie izoprawdopodobieństwowym) do zmiennych nieskorelowanych o normalnym rozkładzie prawdopodobieństwa i parametrach
$$ \begin{equation} \mathcal{N}(\mu_{X_i},\sigma_{X_i}^2) \label{4} \end{equation}$$
gdzie $\mu_{X_i}$ i $\sigma_{X_i}$ oznaczają odpowiednio wartość oczekiwaną (średnią) oraz odchylenie standardowe (pierwiastek z wariancji) zmiennej losowej $X_i$.
Dystrybuantę rozkładu normalnego $\mathcal{N}$ (równanie ($\ref{4}$) można wyznaczyć w arkuszu kalkulacyjnym Excel za pomocą polecenia:
$$\begin{equation} F_{\mathcal N}(x)=\text{ROZKL.NORMALNY}(x;\mu_X;\sigma_X;k)\label{5}\end{equation}$$
gdzie parametr $k$ przyjmuje wartość $k=1$ w przypadku wyznaczania dystrybuanty (rozkładu skumulowanego) $\Phi_X$ oraz wartość $k=0$ w przypadku wyznaczania funkcji gęstości $f_X$ w punkcie $X=x$.
Wyznaczanie dystrybuanty za pomocą funkcji arkusza Excel jest wystarczająco dokładne również w zagadnieniach niezawodności budowlanych układów konstrukcyjnych, które charakteryzują się bardzo wysoką niezawodnością zarówno systemu, jak i jego elementów, a także koniecznością wyznaczania wartości dystrybuanty w „ogonach” rozkładu prawdopodobieństwa. W związku z tym tablice rozkładu normalnego, stosowane dawniej w praktyce inżynierskiej, straciły na znaczeniu, zwłaszcza w obszarze dużych niezawodności.
W dalszych przykładach wykorzystywane będą zarówno wartości dystrybuanty, jak i funkcji gęstości rozkładu normalnego. Ponieważ ich wyznaczanie w arkuszu kalkulacyjnym jest obecnie umiejętnością podstawową, w kolejnych przykładach nie będzie każdorazowo podawana nazwa odpowiedniej funkcji Excela.
Dla przypadków, w których zachodzi potrzeba przeprowadzenia indywidualnych obliczeń numerycznych bez możliwości wykorzystania funkcji arkusza Excel, w tab. 3 podano numeryczne formuły aproksymacyjne dystrybuanty standaryzowanego rozkładu normalnego.
Tab.4. Aproksymacje numeryczne wybranych funkcji specjalnych
\[ \begin{array}{l|c|c}
\hline
\text{Funkcja} & \text{Wzór aproksymacyjny} & \text{Zakres} \\
\hline
(1) & (2) & (3) \\
\hline
\Phi(\beta)\; \text{[A1]} &
\begin{aligned}
\Phi(\beta)\approx 1-\frac{1}{2}\Big(
&1+0.0498673470\,\beta +0.021140061\,\beta^{2}
-0.0032776263\,\beta^{7} \\
&+0.000038003\,\beta^{8}
-0.0000488906\,\beta^{9}
+0.0000053830\,\beta^{10}
\Big)^{-16}
\end{aligned}
& 0\le \beta < \infty \\
\hline
\Phi^{-1}(p_f)\; \text{[A2]} &
\begin{aligned}
\beta \approx z-
\frac{2.515517+0.802853\,z+0.0100328\,z^{2}}
{1+1.432788\,z+0.189269\,z^{2}+0.001308\,z^{7}},\\
z=\sqrt{2\ln \left(\frac{1}{p_f}\right)}
\end{aligned}
& 0<p_f\le \tfrac12 \\
\hline
\Phi(-\beta)\; \text{[A3]} &
\begin{aligned}
\Phi(-\beta)\approx
\frac{1}{\sqrt{2\pi}}\,e^{-\beta^{2}/2}
\Big(
&\frac{0.3193815}{t_\beta}
-\frac{0.3565638}{t_\beta^{2}}
+\frac{1.7814779}{t_\beta^{7}} \\
&-\frac{1.8212560}{t_\beta^{8}}
+\frac{1.33027448}{t_\beta^{9}}
\Big),\\
t_\beta = 1+0.2316419\,\beta
\end{aligned}
& \beta \ge 0 \\
\hline
\Gamma(1+\beta)\; \text{[A4, A5]} &
\begin{aligned}
\Gamma(1+\beta)\approx
&1-0.577191652\,\beta
+0.98820589\,\beta^{2}
-0.897056937\,\beta^{7} \\
&+0.918206857\,\beta^{8}
-0.756704078\,\beta^{9}
+0.482199394\,\beta^{10} \\
&-0.193527818\,\beta^{11}
+0.035868343\,\beta^{12}
\end{aligned}
& 0\le \beta \le 1 \\
\hline
\end{array} \]
Dokładności formuł w zależności od zakresu argumentu funkcji aproksymującej:
\[
\begin{array}{c|l|c|c|c}
\hline
\text{Funkcja} & \text{Aproksymacja} &
3.3\le\beta\le5.2 & 5.2<\beta\le6 & \beta>6 \\
\hline
\Phi(-\beta) & \text{[A1]} &
|\Delta p_f|<10^{-9} &
|\Delta p_f|<10^{-8} &
|\Delta p_f|\sim10^{-7} \\
\hline
\Phi(-\beta) & \text{[A2]} &
|\Delta p_f|<10^{-10} &
|\Delta p_f|<10^{-9} &
|\Delta p_f|<10^{-8} \\
\hline
\Phi^{-1}(p_f) & \text{[A3]} &
|\Delta\beta|<10^{-6} &
|\Delta\beta|<10^{-5} &
|\Delta\beta|\sim10^{-4} \\
\hline
\Gamma(1+\beta) & \text{[A4, A5]} &
|\Delta\Gamma|<10^{-10} &
|\Delta\Gamma|<10^{-9} &
|\Delta\Gamma|<10^{-8} \\
\hline
\end{array}
\]
Uwagi:
1) Aproksymacje inżynierskie wymagają świadomego stosowania, w szczególności przestrzegania zakresu stosowalności. Dla $3.3 \le \beta \le 5.2$ wystarczające są aproksymacje Hastingsa. Dla $5.2 < \beta \le 6$ należy stosować wzory ogonowe Abramowitz–Stegun. Dla $\beta > 6$ zaleca się wyznaczanie $p_f$ z użyciem funkcji $\operatorname{erfc}(\cdot)$ lub przez całkowanie numeryczne.
2) Przybliżenie funkcji Gamma dotyczy aproksymacji typu Stirlinga i Lanczosa w ograniczonym przedziale argumentu.
3) Argumentem funkcji jest współczynnik niezawodności $\beta=\|\mathbf{u}^*\|$, związany z prawdopodobieństwem zniszczenia relacją $p_f=\Phi(-\beta)$. Symbole $x$, $t$ oraz $z=\sqrt{2\ln(1/p_f)}$ są zmiennymi pomocniczymi stosowanymi wyłącznie we wzorach algorytmicznych aproksymacji i nie mają samodzielnej interpretacji fizycznej.
4) Skorzystano z prac:
[A1] Hastings (1955) ,
[A2] Beasley–Springer (1977) ,
[A3] Abramowitz–Stegun (1964a) ,
[A4] Abramowitz–Stegun (1964b) ,
[A5] Lanczos (1964) .
Można także korzystać z tablic dystrybuanty normalnej dla inżynierów (sporządzonych dla dużych wartości argumentu $\beta$) – tab. 4 – oraz tablic odwrotnej dystrybuanty normalnej – tab. 5.
Tab. 5. Dystrybuanta normalna $\Phi(\beta)$ dla inżynierów budownictwa
\[ p_s=\Phi(\beta), \qquad \beta=\Phi^{-1}(p_s) \]
\[\begin{array}{c|cccccccccc}
\hline
\beta & 0{,}00 & 0{,}01 & 0{,}02 & 0{,}03 & 0{,}04 & 0{,}05 & 0{,}06 & 0{,}07 & 0{,}08 & 0{,}09 \\
\hline
3{,}0 & 0{,}9^{2}8650 & 0{,}9^{2}8687 & 0{,}9^{2}8723 & 0{,}9^{2}8759 & 0{,}9^{2}8794 & 0{,}9^{2}8828 & 0{,}9^{2}8862 & 0{,}9^{2}8895 & 0{,}9^{2}8928 & 0{,}9^{2}8959 \\
3{,}1 & 0{,}9^{7}9032 & 0{,}9^{7}9064 & 0{,}9^{7}9095 & 0{,}9^{7}9125 & 0{,}9^{7}9153 & 0{,}9^{7}9180 & 0{,}9^{7}9206 & 0{,}9^{7}9231 & 0{,}9^{7}9255 & 0{,}9^{7}9278 \\
3{,}2 & 0{,}9^{7}9313 & 0{,}9^{7}9336 & 0{,}9^{7}9359 & 0{,}9^{7}9380 & 0{,}9^{7}9402 & 0{,}9^{7}9422 & 0{,}9^{7}9442 & 0{,}9^{7}9461 & 0{,}9^{7}9479 & 0{,}9^{7}9497 \\
3{,}3 & 0{,}9^{7}9531 & 0{,}9^{7}9549 & 0{,}9^{7}9566 & 0{,}9^{7}9583 & 0{,}9^{7}9599 & 0{,}9^{7}9615 & 0{,}9^{7}9630 & 0{,}9^{7}9645 & 0{,}9^{7}9659 & 0{,}9^{7}9673 \\
3{,}4 & 0{,}9^{7}9690 & 0{,}9^{7}9703 & 0{,}9^{7}9716 & 0{,}9^{7}9728 & 0{,}9^{7}9740 & 0{,}9^{7}9751 & 0{,}9^{7}9762 & 0{,}9^{7}9773 & 0{,}9^{7}9783 & 0{,}9^{7}9793 \\
3{,}5 & \mathbf{0{,}9^{9}7673} & 0{,}9^{9}7759 & 0{,}9^{9}7842 & 0{,}9^{9}7922 & 0{,}9^{9}7999 & 0{,}9^{9}8073 & 0{,}9^{9}8145 & 0{,}9^{9}8215 & 0{,}9^{9}8282 & 0{,}9^{9}8346 \\
3{,}6 & 0{,}9^{9}8408 & 0{,}9^{9}8469 & 0{,}9^{9}8526 & 0{,}9^{9}8582 & 0{,}9^{9}8636 & 0{,}9^{9}8688 & 0{,}9^{9}8738 & 0{,}9^{9}8787 & 0{,}9^{9}8833 & 0{,}9^{9}8878 \\
3{,}7 & 0{,}9^{9}8922 & 0{,}9^{9}8963 & 0{,}9^{9}9004 & 0{,}9^{9}9043 & 0{,}9^{9}9080 & 0{,}9^{9}9116 & 0{,}9^{9}9150 & 0{,}9^{9}9184 & 0{,}9^{9}9216 & 0{,}9^{9}9247 \\
3{,}8 & \mathbf{0{,}9^{9}9277} & 0{,}9^{9}9305 & 0{,}9^{9}9333 & 0{,}9^{9}9359 & 0{,}9^{9}9385 & 0{,}9^{9}9409 & 0{,}9^{9}9433 & 0{,}9^{9}9456 & 0{,}9^{9}9478 & 0{,}9^{9}9499 \\
3{,}9 & 0{,}9^{9}9519 & 0{,}9^{9}9539 & 0{,}9^{9}9557 & 0{,}9^{9}9575 & 0{,}9^{9}9593 & 0{,}9^{9}9609 & 0{,}9^{9}9625 & 0{,}9^{9}9641 & 0{,}9^{9}9655 & 0{,}9^{9}9669 \\
\hline
\end{array}\]
Przykład odczytu: $\beta=3{,}80 \Rightarrow p_s=0{,}9^{9}9277=0{,}999999277$.Uwagi:
1) Stosowana w analizach niezawodności konstrukcji metodami FORM/SORM (JCSS, ISO, Eurokody).
2) Zastosowano zapis symboliczny $0{,}9^{N}cccc$ (pominięto zero wiodące; $N$ – liczba kolejnych cyfr „9”, $cccc$ – cztery cyfry nietrywialne). Wartości dystrybuanty obliczono metodą analitycznego całkowania ogona rozkładu normalnego z wykorzystaniem funkcji dopełniającej błędu
$\operatorname{erfc}(x)=\frac{2}{\sqrt{\pi}}\int_{x}^{\infty}e^{-t^{2}}\,dt.$
Tab. 6. Odwrotna dystrybuanta normalna $\Phi^{-1}(p_s)$ dla inżynierów budownictwa
\[ p_s=\Phi(-\beta)\]
\[\begin{array}{c|ccccccccc}
\hline
N\backslash c & {}^{0} & {}^{1} & {}^{2} & {}^{7} & {}^{8} & {}^{9} & {}^{10} & {}^{11} & {}^{12} \\
\hline
2 & 2{,}32635 & 2{,}36562 & 2{,}40892 & 2{,}45726 & 2{,}51215 & 2{,}57583 & 2{,}65207 & 2{,}74779 & 2{,}87817 \\
3 & 3{,}09025 & 3{,}12141 & 3{,}15593 & 3{,}19468 & 3{,}23891 & 3{,}29056 & 3{,}35283 & 3{,}43166 & 3{,}54014 \\
4 & 3{,}71909 & 3{,}74563 & 3{,}77509 & 3{,}80825 & 3{,}84622 & 3{,}89069 & 3{,}94450 & 4{,}01292 & 4{,}10761 \\
5 & 4{,}26504 & 4{,}28851 & 4{,}31461 & 4{,}34403 & 4{,}37776 & 4{,}41736 & 4{,}46537 & 4{,}52659 & 4{,}61160 \\
6 & 4{,}75367 & 4{,}77493 & 4{,}79858 & 4{,}82527 & 4{,}85591 & 4{,}89192 & 4{,}93566 & 4{,}99152 & 5{,}06928 \\
\hline
\end{array}
\]
Notacja: $p_s\equiv 0{,}9^{Nc}$ – zapis symboliczny; $N$ oznacza rząd ogona, $c$ – dołożoną cyfrę.
Przykład: $p_s=0{,}9^{9}52 \Rightarrow \beta=5{,}36753$.
Uwagi:
1) Tablica służy do wyznaczania współczynnika niezawodności $\beta$ w projektowaniu konstrukcji budowlanych.
2) Pogrubieniem zaznaczono minimalne wartości współczynnika niezawodności $\beta_{\min}$, odpowiadające zaleceniom normowym dla klas RC1–RC3 i okresów odniesienia $T=1,50,100$ lat (ISO 2394, EN 1990, JCSS).
3) W teorii niezawodności konstrukcji poziomy bezpieczeństwa porównuje się wyłącznie w skali Gaussa. Rozkłady Weibulla i Gumbela pełnią rolę modeli zmiennych losowych i ekstremów, natomiast ich porównanie realizuje się przez transformację prawdopodobieństwa przetrwania $p_s$ do indeksu niezawodności $\beta$. W tab. 6 zestawiono najważniejsze formuły przejścia do rozkładu normalnego oraz cechy charakterystyczne specjalnych rozkładów stosowanych w niezawodności konstrukcji budowlanych, specyficznych dla różnych materiałów, obciążeń i zjawisk.
Definicje podstawowe
Stosować będziemy oznaczenia i definicje zgodnie z normami , :
$p_f$ – prawdopodobieństwo zniszczenia,
$p_s$ – prawdopodobieństwo przetrwania,
$r = p_s$ – niezawodność systemu,
$Pr\{\cdot\}$ – prawdopodobieństwo,
$g(\cdot)$ – funkcja stanu granicznego,
$\Phi$ – dystrybuanta standaryzowanego rozkładu normalnego,
$\beta$ – współczynnik niezawodności,
$X$ – zmienna losowa,
$x$ – realizacja (wartość) zmiennej losowej,
$f_X(x)$ – funkcja gęstości rozkładu prawdopodobieństwa zmiennej losowej $X$,
$F_X(x)$ – dystrybuanta rozkładu prawdopodobieństwa zmiennej losowej $X$,
$\mu_X$ – wartość oczekiwana zmiennej losowej $X$,
$m_x=\overline{x}\approx\mu_X$ – wartość średnia z próby,
$\sigma_X$ – odchylenie standardowe zmiennej losowej $X$,
$s_x\approx\sigma_X$ – odchylenie standardowe z próby,
$v_X$ – współczynnik zmienności zmiennej losowej $X$,
$R$ – nośność (wytrzymałość, opór elementu lub konstrukcji),
$E$ – obciążenie (efekt oddziaływania, np. siła osiowa, moment zginający, bimoment itd.).
Przy oznaczeniach jak wyżej definiuje się pojęcia:
Niezawodność urządzenia technicznego
Niezawodność (ang. reliability) konstrukcji jest zdolnością konstrukcji do spełniania wymaganych funkcji w założonym czasie eksploatacji, przy czym zarówno właściwości konstrukcji, jak i oddziaływania są wielkościami losowymi. Miarą niezawodności jest prawdopodobieństwo nieprzekroczenia stanów granicznych. Różne poziomy niezawodności mogą dotyczyć stanów granicznych nośności i użytkowalności, a także poszczególnych elementów systemu konstrukcyjnego.
Niezawodność w dziedzinie czasu $\tau$ wyraża się jako :
$$ \begin{equation} R ( t ) = r = Pr \, \{ t \ge \tau \} \label{6} \end{equation} $$
gdzie:
$R( t )$ to prawdopodobieństwo pracy bez uszkodzenia przez czas $t$
$t$ czas pracy konstrukcji do pierwszego uszkodzenia,
$ \tau$ to wymagany czas pracy bez awarii.
Równanie stanu granicznego
$$ \begin{equation} g = R – E = 0 \label{7}\end{equation}$$
lub przy zastosowaniu równania powierzchni granicznej w przestrzeni zmiennych losowych systemu, zestawionych w wektor $\mathbf{X}$,
$$ \begin{equation} g(\mathbf{X}) = 0 \label{8} \end{equation}$$
gdzie $\mathbf{X}$ jest wektorem losowym o wymiarze $(1\times n)$, złożonym ze zmiennych losowych stanu systemu $X_i$ (wektor zmiennych losowych systemu, wektor wejściowy):
$$ \begin{equation}\mathbf{X} = [\,X_1,\,X_2,\,\ldots,\,X_i,\,\ldots,\,X_n\,]^T_{(1\times n)} \label{9}\end{equation}$$
W niniejszej pracy funkcję $g(\cdot)$ nazywa się funkcją stanu granicznego. Równanie $g(\mathbf{X})=0$ opisuje powierzchnię graniczną w przestrzeni zmiennych losowych, oddzielającą obszar stanów bezpiecznych $\Omega_r$ od obszaru awarii $\Omega_f$. W przypadku linearyzacji funkcji $g(\cdot)$ w otoczeniu punktu najbardziej prawdopodobnego $\mathbf{X}^*$ powierzchnia graniczna jest aproksymowana płaszczyzną graniczną (metoda FORM) lub paraboloidą graniczną (metoda SORM).
Prawdopodobieństwo zniszczenia
$$ \begin{equation} p_f = Pr\{g \le 0\} \label{10} \end{equation}$$
Prawdopodobieństwo przetrwania (sukcesu), niezawodność
$$ \begin{equation} r = p_s = 1 – p_f = Pr\{g > 0\} \label{11} \end{equation}$$
Współczynnik niezawodności $\beta$
$$ \begin{equation}\beta = \frac{\mu_g}{\sigma_g} \label{12} \end{equation}$$
gdzie $\mu_g$ oraz $\sigma_g$ są odpowiednio wartością oczekiwaną i odchyleniem standardowym losowej granicy stanu $g(\cdot)$, określonej równaniem (\ref{7}) lub (\ref{8}).
Dla innych rozkładów losowej funkcji granicznej $g$ niż normalny, współczynnik niezawodności $\beta$ zdefiniowany wzorem $(\ref{12})$ nie jest już kwantylem rozkładu normalnego w sensie normowym $(\ref{1})$ i stanowi jedynie umowną, inżynierską miarę niezawodności.
Metoda probabilistyczna oznacza sposób analizy i projektowania konstrukcji, w którym wymaga się, aby prawdopodobieństwo zniszczenia nie przekroczyło wartości granicznej $p_{f,\mathrm{lim}}$ w zadanym okresie odniesienia:
$$ \begin{equation} p_f < p_{f,\mathrm{lim}} \label{13} \end{equation}$$
lub aby niezawodność systemu spełniała warunek
$$ \begin{equation} r = p_s = 1 – p_f \ge r_{\min} \label{14} \end{equation} $$
W kategoriach obszarów stanów pożądanych $\Omega_r$ oraz niepożądanych $\Omega_f$ niezawodność systemu $r$ (\ref{11}) i elementu $r_i$ definiuje się następująco:
obszar stanów pożądanych (bezpiecznych) $\Omega_r$ (rys. 1, rys. 14)
$$ \begin{equation} \Omega_r : g(\mathbf{X}) > 0 \label{15} \end{equation}$$
obszar stanów niepożądanych (niebezpiecznych, awarii, zniszczenia) $\Omega_f$ (rys. 1, rys. 14)
$$\begin{equation} \Omega_f : g(\mathbf{X}) \le 0 \label{16} \end{equation} $$
Niezawodność można zapisać w postaci
$$ \begin{equation} r = Pr\{\mathbf{x}\in\Omega_r\} = \int_{\Omega_r} \, f_X(\mathbf{x})\,d\mathbf{x} \label{17} \end{equation} $$
a prawdopodobieństwo zniszczenia (lub awarii)
$$ \begin{equation} p_f = 1-r = Pr \{\mathbf{x}\in\Omega_f\} = \int_{\Omega_f} \, f_X (\mathbf{x})\,d\mathbf{x} \label{18} \end{equation} $$
Zdarzenie zniszczenia elementu $i$: $\Omega_{f,i}=\overline{\Omega_i}$
Zdarzenie niezawodności elementu $i$: $\Omega_{r,i}=\Omega_i$
Prawdopodobieństwo zniszczenia elementu $i$
$$ \begin{equation} p_{f,i} = Pr\{g_i \le 0\} = Pr\{\overline{\Omega_i}\} = 1-p_{s,i} = 1-r_i \label{19}\end{equation}$$
Prawdopodobieństwo niezawodności elementu $i$
$$ \begin{equation} r_i = p_{s,i} = Pr\{g_i > 0\} = Pr\{\Omega_i\} = 1-p_{f,i} \label{20} \end{equation}$$
Estymatory rozkładów stosowanych w budownictwie
W dalszych analizach probabilistycznych niezbędne są estymatory parametrów rozkładów zmiennych losowych. W tablicach 7–9 zestawiono estymatory najczęściej stosowanych rozkładów: log-normalnego oraz ekstremalnych – Gumbela i Weibulla.
W niniejszym rozdziale symbole $\mu$ oraz $\sigma$ oznaczają parametry rozkładów, a nie momenty centralne, o ile nie zaznaczono inaczej.
Tab.7. Statystyki z próby (z pomiarów w naturze)
\[\begin{array}{l|c|l}
\text{Parametr} & \text{Formuła} & \text{Uwagi} \\
\hline
(1) & (2) & (3) \\
\text{Średnia z próby} &
m=\bar{x}=\frac{1}{N}\sum\limits_{i=1}^{N}x_i & {} \\
\text{Momenty centralne z próby} &
m_k=\frac{1}{N}\sum\limits_{i=1}^{N}(x_i-\bar{x})^{k} &
N\ge 30\ \text{(patrz uwaga pod tabelą)} \\
\text{Wariancja z próby} &
s^{2}=\frac{1}{N-1}\sum\limits_{i=1}^{N}(x_i-\bar{x})^{2} &
\text{Moment }m_2\text{ skorygowany mnożnikiem } \frac{N}{N-1} \\
\text{Odchylenie standardowe z próby} &
s=\sqrt{s^{2}} & {} \\
\text{Współczynnik zmienności z próby} &
v=\frac{s}{\bar{x}} & {} \\
\text{Współczynnik asymetrIII z próby }(N>2) &
A=\frac{m_{7}}{s^{7}} &
\text{dla małej próby: }
A=\frac{m_{7}}{s^{7}}\sqrt{\frac{N(N-1)}{N-2}} \\
\text{Współczynnik spłaszczenia (kurtoza) z próby} &
K=\frac{m_{8}}{s^{8}} &
\text{dla małej próby: }
K=\frac{N(N+1)}{(N-1)(N-2)(N-3)}\frac{m_{8}}{s^{8}}
-\frac{3(N-1)^{2}}{(N-2)(N-3)} \\
\hline
\end{array}
\]
Uwaga: Statystyki uzyskane z próby (tab. 7) mogą być stosowane do estymowania parametrów rozkładów teoretycznych pod warunkiem dostatecznie dużej liczebności próby $N$. W praktyce inżynierskiej i statystycznej przyjmuje się zwykle $N\ge 30$. W szczególnych, wyraźnie uzasadnionych przypadkach dopuszcza się stosowanie estymatorów momentowych dla $6<N<30$ z zachowaniem ostrożności interpretacyjnej.
Tab. 8. Estymatory wybranych rozkładów otrzymane metodą momentów (MOM)
\[\begin{array}{c|l|l|l}
\text{Rozkład} & \text{Oznaczenie} & \text{Estymator pierwszego parametru} & \text{Estymator drugiego parametru} \\
\hline
(1) & (2) & (3) & (4) \\
\text{Normalny} &
\mathcal{N}(\mu,\sigma^{2}) &
\hat{\mu}=m &
\hat{\sigma}^{2}=s^{2} \\
\text{Lognormalny}^{1)} &
\mathcal{L}(\mu,\sigma) &
\hat{\mu}=\ln \left(\frac{m}{\sqrt{v^{2}+1}}\right) &
\hat{\sigma}=\sqrt{\ln(1+v^{2})} \\
\text{Gamma} &
G(\kappa,\theta) &
\hat{\kappa}=\left(\frac{m}{s}\right)^{2} &
\hat{\theta}=\frac{s^{2}}{m} \\
\text{Beta (nośnik }[0,1])^{2)} &
B(\alpha,\beta) &
\hat{\alpha}=m\left(\frac{m(1-m)}{s^{2}}-1\right) &
\hat{\beta}=(1-m)\left(\frac{m(1-m)}{s^{2}}-1\right) \\
\hline
\end{array}
\]
Uwagi do Tab. 8 :
1) Parametry rozkładu normalnego zmiennej $\ln X$.
2) Warunek stosowalności: $s^{2}<m(1-m)$.
Tab. 9. Estymatory rozkładów ekstremalnych otrzymane metodą momentów (MOM)
\[\begin{array}{c|c|c|c}
\text{Rozkład} & \text{Parametr położenia }\alpha & \text{Parametr skali }\beta & \text{Parametr kształtu }\gamma \\
\hline
(1) & (2) & (3) & (4) \\
\text{Gumbel max (GEV max }\gamma=0) &
\hat{\alpha}=m-C_E\beta &
\hat{\beta}=\frac{\sqrt{12}}{\pi}s &
\hat{\gamma}=0 \\
\text{Gumbel min} &
\hat{\alpha}=m+C_E\beta &
\hat{\beta}=\frac{\sqrt{12}}{\pi}s &
\hat{\gamma}=0 \\
\text{Weibull min – pełny MOM} &
\hat{\alpha}=0 &
\hat{\beta}=\frac{m}{\Gamma(1+1/\gamma)} &
\text{z równania skośności \#1}^{3)} \\
\text{Weibull min – skrócony MOM} &
\hat{\alpha}=0 &
\hat{\beta}=\frac{m}{\Gamma(1+1/\gamma)} &
\gamma\ \text{estymowane metodą MNW} \\
\text{GEV max }\gamma\neq 0 &
\hat{\alpha}=m-\frac{\beta}{\gamma}(g_{1}-1) &
\hat{\beta}=\frac{s|\gamma|}{\sqrt{g_{2}-g_{1}^{2}}} &
\text{z równania skośności \#2}^{4)} \\
\hline
\end{array}
\]
Oznaczenia:
$C_E=0{,}57721$ – stała Eulera;
$g_k=\Gamma(1-k\gamma)$;
$m,s,A$ – średnia, odchylenie standardowe i skośność z próby wg tab. 6.
$^{3)}$ Równanie skośności \#1:
\[ \frac{\Gamma(1+3/\gamma)-3\Gamma(1+1/\gamma)\Gamma(1+2/\gamma)+2\Gamma^{7}(1+1/\gamma)}
{\left[\Gamma(1+2/\gamma)-\Gamma^{2}(1+1/\gamma)\right]^{3/2}} =A \]
jest równaniem nieliniowym względem parametru kształtu $\gamma$ i jest wrażliwe na błędy estymacji skośności.
$^{4)}$ Równanie skośności \#2:
\[ \frac{A}{\operatorname{sign}(\gamma)}=\frac{g_{7}-3g_{1}g_{2}+2g_{1}^{7}}{(g_{2}-g_{1}^{2})^{3/2}} \]
Tab. 10. Estymatory rozkładów ekstremalnych otrzymane metodą największej wiarygodności (MNW)
\[ \begin{array}{c|c|c|c}
\text{Rozkład} & \text{Parametr położenia }\alpha & \text{Parametr skali }\beta & \text{Parametr kształtu }\gamma \\
\hline
(1) & (2) & (3) & (4) \\
\text{Gumbel max (GEV max }\gamma=0) &
\hat{\alpha}=-\beta\ln \left(\frac{1}{N}\sum\limits_{i=1}^{N}e^{-x_i/\beta}\right) &
\hat{\beta}=m-\frac{\sum\limits_{i=1}^{N}x_ie^{-x_i/\beta}}{\sum\limits_{i=1}^{N}e^{-x_i/\beta}}^{5)} &
\hat{\gamma}=0 \\
\text{Gumbel min} &
\hat{\alpha}=\beta\ln \left(\frac{1}{N}\sum\limits_{i=1}^{N}e^{x_i/\beta}\right) &
\hat{\beta}=m+\frac{\sum\limits_{i=1}^{N}x_ie^{x_i/\beta}}{\sum\limits_{i=1}^{N}e^{x_i/\beta}}^{5)} &
\hat{\gamma}=0 \\
\text{Weibull min} &
\hat{\alpha}=\min x_i &
\hat{\beta}=\left(\frac{1}{N}\sum\limits_{i=1}^{N}x_i^{\gamma}\right)^{1/\gamma} &
\hat{\gamma}=\left[
\frac{\sum\limits_{i=1}^{N}x_i^{\gamma}\ln x_i}{\sum\limits_{i=1}^{N}x_i^{\gamma}}
-\frac{1}{N}\sum\limits_{i=1}^{N}\ln x_i
\right]^{-1}{}^{5)} \\
\hline
\text{GEV max – Coles (2001)}^{6)} &
(1+\gamma)\sum\limits_{i=1}^{N}\frac{1}{t_i}
-\sum\limits_{i=1}^{N}t_i^{-1/\gamma-1}=0^{(6a)} &
-N+(1+\gamma)\sum\limits_{i=1}^{N}\frac{y_i}{t_i}
-\sum\limits_{i=1}^{N}y_it_i^{-1/\gamma-1}=0^{(6b)} & | ^{(6c)} \\
\hline \end{array} \]
$|^{5)}$ Równania należy rozwiązać iteracyjnie (np. metodą Newtona–Raphsona).
$|^{6)}$ Układ równań MNW Coles (2001) .
$|^{6c)}$ $\sum\limits_{i=1}^{N} \left[\frac{1}{\gamma^{2}}\ln t_i – \left(1+\frac{1}{\gamma}\frac{y_i}{t_i}\right)\right] +\sum\limits_{i=1}^{N}t_i^{-1/\gamma} \left(\frac{1}{\gamma^{2}}\ln t_i- \frac{y_i}{\gamma t_i}\right)=0 $
Zmienne pomocnicze: $y_i=(x_i-\alpha)/\beta$, $t_i=1+\gamma y_i$.
Współczynnik niezawodności $\beta$ wg normy PN-EN 1990
Tab. 11. Zależność liczbowa pomiędzy współczynnikiem niezawodności $\beta$ a prawdopodobieństwem zniszczenia $p_f$
\[ \begin{array}{c|ccccccc}
p_f & 10^{-1} & 10^{-2} & 10^{-3} & 10^{-4} & 10^{-5} & 10^{-6} & 10^{-7} \\
\hline
\beta & 1{,}28 & 2{,}32 & 3{,}09 & 3{,}72 & 4{,}27 & 4{,}75 & 5{,}20 \\
\end{array} \]
Tab. 12. Minimalne współczynniki niezawodności $\beta_{\min}$ zależnie od klasy niezawodności RC i okresu odniesienia $T$
\[ \begin{array}{c|c|c|c}
\hline
\text{Klasa niezawodności} &
\beta_{\min}(T=1\ \text{rok}) &
\beta_{\min}(T=50\ \text{lat}) &
\beta_{\min}(T=100\ \text{lat}) \\
\hline
\text{RC1} & 3{,}8 & 3{,}4 & 3{,}3 \\
\text{RC2} & 4{,}2 & \mathbf{3{,}8} & 3{,}7 \\
\text{RC3} & 4{,}7 & 4{,}3 & 4{,}2 \\
\hline
\end{array}
\]
Dla innych okresów odniesienia $T$ wymaganą niezawodność $\beta_{\min}$ można wyznaczyć z wartości $\beta_1=\beta(T=1\ \text{rok})$ ze wzoru
$$\begin{equation} \beta(T)=\Phi^{-1} \left(1-\left[1-\Phi(-\beta_1)\right]^T\right) \label{21} \end{equation} $$
Dla systemów wysoko niezawodnych można stosować aproksymację (bardzo dokładną dla klas RC2 i RC3):
$$\begin{equation} \beta(T)\approx\beta_1-\frac{\ln T}{\beta_1}, \qquad (\beta_1\gtrsim 4) \label{22}\end{equation}$$
Momenty i kowariancje funkcji wektorów losowych
W dalszej części pracy operator wartości oczekiwanej zapisywany jest jako $\mathbb{E}$.
Indeks górny „mieczyk” $(\dagger)$ oznacza wartość sprzężoną wielkości lub funkcji zespolonej. W przypadku macierzy rzeczywistych wartość sprzężona jest macierzą transponowaną (indeks $(T)$). Formuły na momenty statystyczne funkcji dotyczą zarówno rzeczywistych, jak i zespolonych zmiennych skalarnych oraz wektorowych.
Poniżej zestawiono uogólnione definicje wartości oczekiwanej, wariancji, kowariancji i korelacji dla funkcji skalarnych i wektorowych zmiennych losowych, wykorzystywane w dalszych rozważaniach analitycznych metod FORM/SORM. Formuły te uogólniają wyrażenia zestawione w tab. 1 do postaci wymaganej w kolejnych rozdziałach pracy.
Losowe wektory $\mathbf{Y}$ oraz $\mathbf{Z}$ (w ogólnym przypadku zespolone) mają
wartości oczekiwane $\boldsymbol{\mu}_y=\mathbb{E}\mathbf{Y}$ oraz $\boldsymbol{\mu}_z=\mathbb{E}\mathbf{Z}$.
Obie wielkości są funkcjami rzeczywistego wektora losowego $\mathbf{X}$, który ma funkcję gęstości rozkładu prawdopodobieństwa $f_{\mathbf{X}}(\mathbf{x})$ oraz wartość oczekiwaną $\boldsymbol{\mu}_x=\mathbb{E}\mathbf{X}$.
$$ \begin{equation} \mathbf{Y}=\Theta(\mathbf{X}), \qquad \mathbf{Z}=\Psi(\mathbf{X}) \label{23} \end{equation} $$
Wycentrowane zmienne $\mathbf{X}^0$, $\mathbf{Y}^0$, $\mathbf{Z}^0$:
$$ \begin{equation} \mathbf{X}^0=\mathbf{X}-\boldsymbol{\mu}_x, \qquad
\mathbf{Y}^0=\mathbf{Y}-\boldsymbol{\mu}_y, \qquad
\mathbf{Z}^0=\mathbf{Z}-\boldsymbol{\mu}_z
\label{24}\end{equation} $$
Wartość oczekiwana funkcji wektora losowego $\Theta$ (analogicznie dla funkcji $\Psi$):
$$ \begin{equation}
\boldsymbol{\mu}_y=\mathbb{E}[\mathbf{Y}] =\mathbb{E}[\Theta(\mathbf{X})] =\int_{\mathbb{R}^n}\Theta(\mathbf{x})\,f_{\mathbf{X}}(\mathbf{x})\,d\mathbf{x}
\label{25} \end{equation} $$
Moment drugiego rzędu (niecentralny) funkcji wektora losowego $\Theta$:
$$ \begin{equation} \boldsymbol{\Gamma}_y=\mathbb{E}[\mathbf{Y}\mathbf{Y}^\dagger] =\mathbb{E}[\Theta(\mathbf{X})\,\Theta(\mathbf{X})^\dagger]
=\int_{\mathbb{R}^n}\Theta(\mathbf{x})\,\Theta(\mathbf{x})^\dagger
f_{\mathbf{X}}(\mathbf{x})\,d\mathbf{x} \label{26}\end{equation}$$
Wariancja (kowariancja własna) wektora $\mathbf{Y}$:
$$ \begin{equation}
\mathbf{C}_{yy}=\operatorname{Var}(\mathbf{Y}) =\mathbb{E}[\mathbf{Y}^0\mathbf{Y}^{0\dagger}]=\int_{\mathbb{R}^n}
[\Theta(\mathbf{x})-\boldsymbol{\mu}_y]
[\Theta(\mathbf{x})-\boldsymbol{\mu}_y]^\dagger
f_{\mathbf{X}}(\mathbf{x})\,d\mathbf{x}
\label{27} \end{equation}$$
Wzajemny drugi moment:
$$ \begin{equation} \boldsymbol{\Gamma}_{yz} =\mathbb{E}[\mathbf{Y}\mathbf{Z}^\dagger] =\mathbb{E}[\Theta(\mathbf{X})\,\Psi(\mathbf{X})^\dagger]
\label{28}\end{equation}$$
Kowariancja wzajemna:
$$ \begin{equation} \mathbf{C}_{yz} =\operatorname{Cov}(\mathbf{Y},\mathbf{Z}) =\mathbb{E}[\mathbf{Y}^0\mathbf{Z}^{0T}] =\int_{\mathbb{R}^n} [\Theta(\mathbf{x})-\boldsymbol{\mu}_y] [\Psi(\mathbf{x})-\boldsymbol{\mu}_z]^T f_{\mathbf{X}}(\mathbf{x})\,d\mathbf{x} \label{29} \end{equation} $$
Dla przypadku $\Psi(\mathbf{X})\equiv\mathbf{X}$ otrzymujemy kowariancję wektorów $\mathbf{X}$ i $\mathbf{Y}$:
$$ \begin{equation} \mathbf{C}_{xy} =\mathbb{E}[\mathbf{X}^0\mathbf{Y}^{0\dagger}] =\int_{\mathbb{R}^n}
(\mathbf{x}-\boldsymbol{\mu}_x) [\Theta(\mathbf{x})-\boldsymbol{\mu}_y]^\dagger f_{\mathbf{X}}(\mathbf{x})\,d\mathbf{x}
\label{30}\end{equation} $$
Wariancja zmiennej losowej skalarnej
W przypadku zmiennej skalarnej kowariancja staje się wariancją $ CovX = Var X = \sigma_x^2$.
Korelacja
Związek pomiędzy zmiennymi losowymi nazywa się korelacją.
Współczynnik korelacji zmiennych losowych $X$ i $Y$ o wartościach oczekiwanych $\mu_x$, $\mu_y$, odchyleniach standardowych $\sigma$.
$$ \begin{equation} \rho_{XY} =\mathrm{Corr}\{X,Y\} =\frac{\mathrm{Cov}(X,Y)}{\sigma_X\sigma_Y} =\frac{\mathbb{E}[X^0Y^0]}{\sqrt{\mathbb{E}[(X^0)^2]}\,\sqrt{\mathbb{E}[(Y^0)^2]}} \label{31} \end{equation} $$
Rozwinięcie funkcji wektorowej g(X) w szereg Taylora
Złożoność obliczeń wartości oczekiwanych, dyspersji kowariancji nieliniowych funkcji zmiennych losowych powoduje, że powszechnie stosuje się aproksymację funkcji nieliniowej przez rozwinięcie w szereg Taylora..Punkt aproksymacji $X^*$, czyli punkt w którym do nieliniowej funkcji aproksymowanej prowadzi się styczną należy dobrać tak, by uzyskać jak najlepsze przybliżenie interesującej wielkości. W przypadku obliczania wartości momentów statystycznych punkt $X^* =\mu_X $, ponieważ wokół tej wielkości zmienne losowa $X$, będzie przyjmowała wartości najczęściej. Natomiast w przypadku szacowania niezawodności punkt aproksymacji to NPP (najbardziej prawdopodobny punkt), który należy wyznaczać iteracyjnie.
Formuły rozwinięcia wokół punktu X*
Rozważmy zmienną wektorową
$\mathbf{Y}= [ Y_1, \, Y_2, \,\, \cdots , \, Y_j , \, \cdots , \, Y_m]^T_{(1×m)} = [Z_j], (j=1, \cdots m)$,
będącą nieliniową funkcją wektorową $\mathbf {g} (\mathbf{X})$ wektora
$\mathbf{X}= [ X_1, \, X_2, \,\, … , \, X_i , \, … , \, X_n]^T_{(1×n)} = [X_i], (i = 1, \cdots n)$, ($\ref{9}$).
Funkcja $\mathbf{g} = [g_1,\, g_2, \, \cdots, \, g_m]^T_{(1×m)}= [g_j], (j=1, \cdots m)$, jest w ogólności nieliniowa, a w przypadku jednowymiarowym pokazano ją na Rys. 2.

Rys. 2. Aproksymacja funkcji nieliniowej g(X) linią prostą lub parabolą
Funkcję nieliniową w określonym punkcie NPP o współrzędnych $(X,Y)^*$ można aproksymować prostą funkcją: linią prostą (FORM) , parabolą (SORM) lub krzywą wyższych rzędów.
W zapisie klasycznym funkcję na j-tą współrzędną wektora $\mathbf{Z}$ można zapisać w postaci $Z_j =g_j (\mathbf{X})$, a rozwinięcie tej funkcji wokół punktu $\mathbf{X}^*$ w szereg Taylora w postaci:
$$ \begin{equation}Y_j = g_j (\mathbf{x})\approx g_j (\mathbf{X}^*) + \cfrac{1}{1!}\sum \limits_{i=1}^{n} \cfrac{\partial g_j (\mathbf{X})}{\partial X_i }\bigg|_{ \mathbf{X}= \mathbf{X}^*} \cdot (X_i-X_i^*) + \cfrac{1}{2!} \sum \limits_{i=1}^n \sum \limits_{k=1}^n \cfrac{\partial^2 g_j(\mathbf{X}) }{\partial X_i \partial X_k }\bigg|_{ \mathbf{X}= \mathbf{X}^*} (X_i -X_i^* )\cdot (X_k – X_k^*) +R \label{32} \end{equation} $$
Równanie ($\ref{32}$) jest wielomianem aproksymacyjnym, w którym reszta R zawiera składniki rzędu wyższego niż drugi. Zapis ($\ref{32}$) w jawnej postaci podaje człon stały, liniowy i drugiego rzędu paraboli stycznej do funkcji oryginalnej w punkcie $\mathbf{X}^*$. W zapisie macierzowym rozwinięcie w szereg Taylora przy pominięciu reszty R można przedstawić w postaci:
$$ \begin{equation} \mathbf{Y} = \mathbf{g}(\mathbf{X}) \approx \mathbf{g}(\mathbf{X}^*) + \partial \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] + 1/2 \cdot [ \mathbf{X}- \mathbf{X}^*] ^T \partial^2 \mathbf{g}(\mathbf{X}^*) [ \mathbf{X}- \mathbf{X}^*] \label{33} \end{equation} $$
gdzie wprowadzono oznaczenia:
$\mathbf{g}(\mathbf{X}^*)$ stały wektor kolumnowy zawierający wartości funkcji $\mathbf{g}$ w punkcie $\mathbf{X} = \mathbf{X}^*$
$\partial \mathbf{g}(\mathbf{X}^*)$ – macierz wrażliwości pierwszego rzędu, o wymiarze $(m×n)$, w tym samym punkcie.
$\partial^2 \mathbf{g}(\mathbf{X}^*)$ – macierz wrażliwości drugiego rzędu, o wymiarze $ [(m×n)×n]$ .
Macierz $\partial \mathbf{g}$ jest nazywana macierzą Jacobiego $ \mathbf{J}_g$, której elementami są: $[J_g\_{ij}$, (i = 1, \cdots, n), ( j=1\cdots , m) są funkcje $[\partial g_j/ \partial X_i]_{(ij)}$:
$$\begin{equation} \mathbf{J}_g =
\begin{bmatrix} \cfrac{\partial g_1}{\partial X_1} & \cdots & \cfrac{\partial g_1}{\partial X_n} \\
\vdots & \ddots &\vdots \\ \cfrac{\partial g_m}{\partial X_1} & \cdots & \cfrac{\partial g_m}{\partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}
\label{34} \end{equation} $$
Pierwszy wiersz macierzy $\mathbf{J}$ stanowią pochodne pierwszej funkcji $g_1$ po poszczególnych zmiennych $X_1 ,\cdots , X_n$.
Macierz (${34}$) można przedstawić w postaci wektora kolumnowego, którego współrzędnymi są gradienty $ \nabla g_i$ funkcji $g_i$ tworzących wektor $\mathbf{g}$
$$ \begin{equation} \begin{bmatrix} \nabla g_1 \\ \vdots \\ \nabla g_m \end{bmatrix}_{\mathbf{X}=\mathbf{X}^*}\label{35} \end{equation} $$
gdzie:
$$ \begin{equation} \nabla g_i = \begin{bmatrix} \cfrac{\partial g_i}{\partial X_1}, \cdots , \cfrac {\partial g_i}{ \partial X_n} \end{bmatrix} \label{36} \end{equation} $$
Macierz $\partial^2 \mathbf{g}( \mathbf{X}^*)$ jest macierzą wrażliwości drugiego rzędu, ma wymiar $[(n×n)×m]$. Trójwymiarowa macierz jest złożona z pakietu „m” macierzy typu $\mathbf{H}_{g,j} $ ( j=1 \cdots, m), każda o wymiarze ($nxn$) i postaci
$$\begin{equation} \mathbf{H}_{g,i} = \begin{bmatrix}
\cfrac{\partial^2 g_i}{ \partial X_1^2} &\cfrac{ \partial ^2 g_i}{\partial X_1 \partial X_2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_1 \partial X_n} \\
\cfrac{\partial^2 g_i}{ \partial X_2 \partial X_1} &\cfrac{ \partial ^2 g_i}{\partial X_2^2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_2 \partial X_n} \\
\vdots & \vdots & \cdots & \ddots & \vdots \\
\cfrac{\partial^2 g_i}{ \partial X_n \partial X_1} &\cfrac{ \partial ^2 g_i}{\partial X_n^2} & \cdots & \cfrac{\partial^2 g_i}{\partial X_n \partial X_n} \\
\end{bmatrix}_{\mathbf{X}=\mathbf{X}^*} \label{37} \end{equation} $$
Macierze ($\ref{37}$) są nazywane macierzami Hessego .
Momenty probabilistyczne funkcji zmiennej losowej z linearyzacji
Wyznaczanie momentów probabilistycznych funkcji losowej poprzez linearyzację nie wymaga iteracji w odróżnieniu od szacowania niezawodności konstrukcji.
Momenty probabilistyczne (statystyczne) najlepiej szacować poprzez rozwinięcie funkcji $\mathbf{Y} =g (\mathbf{X})$ podług formuły ($\ref{32}$) wokół wartości oczekiwanych argumentu $ \mathbf{X =\mu_X}$, a nie w otoczeniu punktu NPP, co prowadzi co formuły:
$$ \begin{equation} \mathbf{Y} \approx g ( \mu_X ) + \cfrac{\partial g(X) }{\partial X }|_{\mu_X} (X- \mu_X )\label{38}\end{equation} $$
Po zastosowaniu operatora wartości oczekiwanej do funkcji liniowej ($\ref{38}$) otrzymamy następujące formuły linearyzacji probabilistycznej na wartość oczekiwaną i kowariancję wektora $\mathbf{Y}$ :
$$ \begin{equation} \mu_y \approx g ( \mu_x ) \label{39}\end{equation} $$
$$\begin{equation} \mathbf{C}_y \approx \mathbf{J}_g(\boldsymbol{\mu}_x)\,\mathbf{C}_x\,\mathbf{J}_g(\boldsymbol{\mu}_x)^\dagger \label{40} \end{equation}$$
gdzie $\mathbf{J}_g(\boldsymbol{\mu}_x)$ jest macierzą Jacobiego funkcji granicznej $\mathbf{g}(\mathbf{X})$, wyznaczoną w punkcie wartości oczekiwanej $\boldsymbol{\mu}_x$ wektora zmiennych losowych $\mathbf{X}$.
i który {„po inżyniersku”) może być zapisany w postaci
$$ \begin{equation} \mathbf{C}_y \approx g^{’} ( \mu_x ) \, \mathbf{C}_x \, g ^{’} ( \mu_x )^† \label{41}\end{equation} $$
gdzie $\mathbf{C}_x = Cov \mathbf{X}$, $\mathbf{C}_y = Cov\mathbf{Y}$ są macierzami kowariancji odpowiednio wektora $\mathbf{X}$ i $\mathbf{Y}$.
Dokładność metody linearyzacji zależy od rozproszenia losowego zmiennej wejściowej. Jeśli $ \sigma_x \ll \mu_x$. to dokładność aproksymacji jest dobra i zmniejsza się wraz ze zmniejszaniem się nieliniowości funkcji
Część IIa Niezawodnościowy model statyczny konstrukcji budowlanej
Wprowadzenie do niezawodności konstrukcji
Niezawodność może być również mierzona współczynnikiem (indeksem) niezawodności $\beta$ (\ref{12}), ogólnie zdefiniowanym w (\ref{1}). Współczynnik β jest alternatywną miarą niezawodności, wyrażoną w innej skali niż prawdopodobieństwo zniszczenia $p_f$ lub prawdopodobieństwo przetrwania $r=p_s=1-p_f$
Na rys. 2 przedstawiono dwuwymiarową przestrzeń losową zmiennych stanu $X_1$ i $X_2$ z wartościami oczekiwanymi $\mu_1$, $\mu_2$ i odchyleniami standardowymi $\sigma_1$, $\sigma_2$. Gruba linia oznacza granicę $g(X_1, X_2)=0$ między stanami bezpiecznymi $\Omega_r$ a stanami zniszczenia $\Omega_f$. Najbardziej prawdopodobny Punkt (NPP) $\mathbf{x}^*$ służy do praktycznych obliczeń niezawodności, której miarą jest indeks $\beta$ – odległość środka rozkładu od granicy stanu zniszczenia.

Rys. 3 Dwuwymiarowa przestrzeń probabilistyczna. Najbardziej prawdopodobny punkt (NPP)
W budownictwie niezawodność oznacza, że obiekt spełnia wymagane funkcje użytkowe w określonym czasie i warunkach eksploatacji. Każda konstrukcja działa w warunkach zmienności i niepewności: zarówno obciążenia, jak i właściwości materiałowe mogą ulegać rozrzutowi i zmianom w czasie. Z tego względu projektanci muszą uwzględniać nie tylko niezawodność, lecz także bezpieczeństwo (brak zagrożenia życia i zdrowia ludzi oraz strat materialnych), naprawialność oraz dostępność elementów konstrukcyjnych.
Niezawodność jest ściśle powiązana z trwałością . Konstrukcje budowlane, w szczególności żelbetowe, projektowane są obecnie głównie z punktu widzenia trwałości, rozumianej jako zdolność do zachowania cech użytkowych w czasie oddziaływania czynników środowiskowych (np. korozji zbrojenia, mrozu, karbonatyzacji). Procesy degradacyjne, takie jak korozja, pełzanie i relaksacja, prowadzą do zwiększenia odkształceń, pogorszenia stanów użytkowalności, a w skrajnych przypadkach również do obniżenia nośności i stateczności konstrukcji. Niezawodność i trwałość są pojęciami powiązanymi, lecz nie tożsamymi. Trwałość opisuje proces stopniowej degradacji, który nie zawsze jest klasyfikowany jako awaria aż do momentu przekroczenia granicznych wartości dopuszczalnych, określonych w przepisach technicznych.
Niezawodność dostarcza probabilistycznych informacji o częstości awarii, które – w połączeniu z oceną skutków – stanowią podstawę analizy ryzyka . Z punktu widzenia zarządzania ryzykiem istotne są zarówno parametry niezawodnościowe (np. rozkład czasu do uszkodzenia), jak i ocena potencjalnych konsekwencji (straty materialne, zagrożenie zdrowia i życia).
Niezawodność jest również ściśle związana z poziomem jakości projektowania, wykonania i eksploatacji konstrukcji. Niski poziom jakości globalnej (np. błędy projektowe, wady wykonawcze, brak kontroli jakości) zwiększa prawdopodobieństwo defektów i awarii, co prowadzi do wzrostu ryzyka oraz kosztów eksploatacyjnych. Z tego względu integracja zarządzania jakością i zarządzania ryzykiem (np. metody FMEA w systemach QMS) stanowi obecnie standardową praktykę.
Początki współczesnej inżynierii niezawodności sięgają III wojny światowej, kiedy rozwijano metody analizy niezawodności komponentów elektronicznych i mechanicznych. Z czasem dyscyplina ta została uogólniona na systemy inżynierskie, w tym konstrukcje budowlane (Gniedenko, Bielajew, 1965; Murzewski, 1989; Birolini, 2017; O’Connor, Kleyner, 2012).
Współczesnym standardem w analizie systemów technicznych są wymagania RAMS (Reliability, Availability, Maintainability, Safety), obejmujące niezawodność, dostępność, utrzymywalność i bezpieczeństwo. Atrybuty te wpływają bezpośrednio na użyteczność oraz koszty cyklu życia systemu.
Bezpieczeństwo i niezawodność są podstawowymi pojęciami projektowania, realizacji i eksploatacji budowli (Verma et al., 2015). Niezawodność jest wielkością obiektywną, natomiast bezpieczeństwo ma również wymiar subiektywny, związany z postrzeganiem ryzyka. W normach budowlanych (PN-ISO 2394, EN 1990, Model Code 2010) określa się zależności pomiędzy wymaganym poziomem niezawodności, konsekwencjami zniszczenia oraz kosztami zapewnienia bezpieczeństwa.
Przejawem stopnia bezpieczeństwa w obiekcie budowlanym jest katastrofa budowlana, Przy braku katastrof budowlanych możemy wnioskować, ze obiekt jest niezawodny (i bezpieczny). Statystyki GUN pokazują, że w Polsce w 2024 r. większość katastrof była wynikiem zdarzeń losowych (82%), a najczęściej ulegały im budynki mieszkalne (39%) i konstrukcje murowe (60%). Nalży zaznaczyć, że z definicji „ Katastrofa budowlana to gwałtowne, niezamierzone zniszczenie obiektu budowlanego lub jego części„. Nie jest katastrofą uszkodzenie elementu budowlanego nadającego się do naprobwy, uszkodzenie lub zniszczenie urządzeń budowlanych jak również awaria instalacji
Statystyka katastrof budowlanych prowadzonych przez Główny Urząd Nadzoru Budowlanego wskazuje, że liczba katastrof w Polsce jest znacznie mniejsza od roku 2008, w którym osiągnięto szczyt (rys. 3)

Rys. 4. Katastrofy budowlane w Polsce w latach 1996 do 2024
W 2024 roku najczęstszą przyczyna katastrof były zdarzenia losowe (82%). a w dalszej kolejności błędy podczas eksploatacji obiektu( (14%) i błędy podczas wznoszenia lub innych robót budowlanych (4%). Błędy podczas opracowania dokumentacji obiektu budowlanego wskazywano tylko w 2%. Katastrofie najczęściej ulegały budynki mieszkalne (39%), a następnie gospodarcze i inwentarskie (37%). Najczęściej ulegały katastrofie konstrukcje murowe (60%), drewniane (12%),a najrzadziej żelbetowe monolityczne (2%). Najczęściej ulegały awarii słupy, a następnie przekrycie.
Projektowanie probabilistyczne konstrukcji budowlanych
Specyfika szacowania niezawodności konstrukcji budowlanych
W teorii konstrukcji budowlanych stosuje się trzy poziomy obliczeń do szacowania niezawodności systemów konstrukcyjnych. Dwa pierwsze poziomy opierają się na aproksymacyjnych metodach probabilistycznych, które uwzględniają złożoność konstrukcji składających się z setek lub tysięcy elementów, opisywanych przez skorelowane zmienne losowe. Nawet pełna znajomość łącznego rozkładu tych zmiennych wymagałaby przeprowadzenia milionów realizacji w symulacji Monte Carlo, co jest niezbędne przy ocenie bardzo wysokiej niezawodności budowli. Zastosowanie metod trzeciego poziomu, zapewniających taką dokładność, jest w praktyce projektowej bardzo trudne lub wręcz niemożliwe.
W metodach poziomu pierwszego probabilistyczną naturę niepewności parametrów materiałowych i obciążeń uwzględnia się poprzez zastosowanie systemu częściowych współczynników bezpieczeństwa, zgodnie z zaleceniami norm Eurokod i projektowania metodą stanów granicznych .
Częściowe współczynniki bezpieczeństwa są kalibrowane w systemie LRFD poprzez porównanie wyników projektowania z wynikami analiz niezawodności prowadzonych metodami wyższych poziomów, tak aby zminimalizować różnice pomiędzy docelową a rzeczywistą niezawodnością konstrukcji , ,.
W metodach drugiego poziomu probabilistyczna natura problemu jest ujęta poprzez operowanie podstawowymi statystycznymi miarami niepewności parametrów materiałów i obciążeń, najczęściej wartością średnią zmiennej losowej, jej wariancją oraz miarami korelacji pomiędzy tymi parametrami. Metody te obejmują zbiór przybliżonych, najczęściej iteracyjnych procedur obliczeniowych, których celem jest oszacowanie prawdopodobieństwa awarii konstrukcji. Zazwyczaj wymagają one kontrolowanej idealizacji obszaru awarii, utożsamianego z uproszczoną reprezentacją rozkładów prawdopodobieństwa obciążeń oraz nośności materiałów .
Porównanie inżynierskich metod probabilistycznej analizy niezawodności
W tab. 13 zestawiono oraz oceniono – pod względem dokładności obliczeń oraz kosztu obliczeniowego – najważniejsze, obecnie stosowane inżynierskie metody probabilistycznej analizy niezawodności, w tym metody drugiego poziomu. W praktyce projektowej metody FORM i SORM stanowią najczęściej standard obliczeniowy, natomiast klasyczne symulacje Monte Carlo (MC), szybkie metody symulacyjne oraz metody hybrydowe pełnią rolę referencyjną i weryfikacyjną, szczególnie w analizach rzadkich zdarzeń oraz konstrukcji o wysokich wymaganiach bezpieczeństwa.
Zestawienie ma charakter porównawczy i poglądowy. Oceny oznaczone symbolami gwiazdek odnoszą się do typowych zastosowań inżynierskich w budownictwie i mechanice konstrukcji oraz zakładają poprawne przygotowanie danych wejściowych (normalizacja, dekorelacja, dobór rozkładów brzegowych). Nie stanowią one rankingu uniwersalnego – wybór metody powinien być każdorazowo uzależniony od liczby zmiennych losowych, stopnia nieliniowości funkcji granicznej, wymaganej dokładności obliczeń oraz dostępnych zasobów obliczeniowych.
Tab. 13. Porównanie metod probabilistycznej analizy niezawodności
oraz transformacji zmiennych losowych
\[
\begin{array}{|l|l|l|c|c|}
\hline
\textbf{Metoda} & \textbf{Idea / transformacja} & \textbf{Typowe zastosowanie} & \textbf{Dokł.} & \textbf{Koszt} \\ \hline
\text{FORM} & \text{Liniowa aproksymacja } g(\mathbf{X}) \text{ w MPP} & \text{Analiza inżynierska, szybkie oszacowania} & \star\star\star\star & \star\star\star\star\star \\ \hline
\text{SORM} & \text{Krzywizna } g(\mathbf{X}) \text{ (III rząd)} & \text{Nieliniowe problemy } g, \text{ większa dokładność} & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{MC (klasyczne)} & \text{Symulacja losowa} & \text{Weryfikacja, złożone } g(\mathbf{X}) & \star\star\star\star\star & \star\star \\ \hline
\text{MC szybkie (IS, Subset)} & \text{Próbkowanie w obszarze awarii} & \text{Rzadkie zdarzenia } (\beta>4) & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{RSM} & \text{Meta-model } g(\mathbf{X}) & \text{Optymalizacja, analiza wstępna} & \star\star\star & \star\star\star\star\star \\ \hline
\text{Nataf / Copula Gaussa} & \text{Normalizacja marginesów + korelacja} & \text{FORM/SORM (standard)} & \star\star\star\star\star & \star\star\star\star \\ \hline
\text{Rosenblatt} & \text{Transformacja warunkowa (dokładna)} & \text{Analizy referencyjne} & \star\star\star\star\star & \star\star\star \\ \hline
\text{Rank}\rightarrow\text{Gauss} & \text{Rangi }\rightarrow\text{ kwantyle } \mathcal{N}(0,1) & \text{Pola losowe} & \star\star\star\star & \star\star\star\star\star \\ \hline
\text{K–L + normalizacja} & \text{Dekorelacja pola + mapowanie } \mathcal{N}(0,1) & \text{Stochastyczna FEM} & \star\star\star & \star\star\star\star \\ \hline
\text{Kolokacja Murzewski} & \text{Dopasowanie lokalne w NPP / }\mu & \text{Zastosowania inżynierskie} & \star\star\star & \star\star\star\star \\ \hline
\end{array}
\]
Uwagi do Tab 13:
1) Liczba gwiazdek oznacza ocenę względną (★★★★★ – najwyższa, ★★ – niska).
2) Oceny odnoszą się do typowych zastosowań inżynierskich i nie stanowią rankingu uniwersalnego, lecz ocenę względną dokładności i kosztu obliczeniowego w praktyce inżynierskiej.
3) Dokładność metod przybliżonych (FORM, SORM, RSM, kolokacja) zależy od stopnia nieliniowości funkcji granicznej, liczby zmiennych losowych oraz jakości transformacji probabilistycznej (normalizacja, dekorelacja).
4) Koszt obliczeniowy odnosi się do liczby wywołań funkcji granicznej $g(\mathbf{X})$.
5) Zestawienie ma charakter poglądowy i nie stanowi rankingu uniwersalnego.
6) Szczegółowe porównanie metod obliczeń niezawodnościowych, obejmujące ichcharakterystykę, zalety, ograniczenia oraz aspekty implementacyjne, zestawionow tabeli uzupełniającej poniżej,
7) Zestawienie metod probabilistycznej analizy niezawodności (tab. 12) ma charakter porównawczy i inżynierski, a nie rankingowy.
8) Oceny metod należy zawsze interpretować w kontekście jakości danych wejściowych, dokładności modeli obliczeniowychoraz rzeczywistej złożoności analizowanego systemu konstrukcyjnego.
W praktyce projektowej i eksploatacyjnej konstrukcji budowlanych – w szczególności konstrukcji żelbetowych lub drewnianych – dostępne dane materiałowe, geometryczne i obciążeniowe charakteryzują się znaczną niepewnością, a modele obliczeniowe (w tym metody elementów skończonych) mają ograniczoną dokładność, która dodatkowo maleje wraz ze wzrostem liczby elementów i stopnia złożoności układu. W takich warunkach stosowanie metod probabilistycznych o bardzo wysokiej dokładności matematycznej może prowadzić do pozornej precyzji, nieuzasadnionej rzeczywistą jakością danych.
Z tego względu w wielu zastosowaniach inżynierskich metody uproszczone, analityczne i korelacyjne, operujące na granicach oszacowań niezawodności oraz modelach systemowych (szeregowych, równoległych i mieszanych),okazują się wystarczające i bardziej adekwatne niż metody symulacyjne wysokiego poziomu. Przykładem takiego podejścia jest metoda uogólnionej korelacji zaproponowana przez Kudźisa [M9], przeznaczona do oceny niezawodności konstrukcji żelbetowych o dużej redundancji i ograniczonej jakości danych wejściowych.
Metody FORM i SORM, podobnie jak metody symulacyjne Monte Carlo należy w tym kontekście traktować przede wszystkim jako narzędzia odniesienia, kalibracji i analiz wstępnych, a nie jako rozwiązania uniwersalne. W dalszej części pracy pokazano, że dla rozległych systemów konstrukcyjnych o charakterze binarnym (awaria / brak awarii)oraz przy braku precyzyjnych danych materiałowych, analiza granic niezawodności i uproszczo
Przygotowanie wektora systemu $\mathbf{X}$ do obliczeń 2. poziomu
Metody 2. poziomu szacowania niezawodności konstrukcji budowlanych wymagają wstępnego przygotowania wektora zmiennych losowych systemu $\mathbf{X}$ ($\ref{9}$), złożonego ze składowych $X_i \quad (i=1,\cdots,N)$, które w ogólności:
– mają różne brzegowe rozkłady prawdopodobieństwa (ang. marginal distributions),
– są nienormalne,
– są wzajemnie skorelowane.
Wektor $\mathbf{X}$ należy poddać transformacji $\mathbf{T}$ takiej, aby procedura FORM/SORM była przeprowadzona na wektorze o rozkładzie normalnym, wycentrowanym i o nieskorelowanych współrzędnych losowych.
Transformacja $\mathbf{T} : \mathbf{X} \rightarrow \mathbf{U}$ powinna zachować prawdopodobieństwo awarii, tj. spełniać warunek
$$p_f = \int\limits_{\Omega_f} f_X(\mathbf{x})\, d\mathbf{x} = \int\limits_{\Delta_f} f_U(\mathbf{u})\, d\mathbf{u} $$
gdzie:
$f_X(\mathbf{x})$, $f_U(\mathbf{u})$ – funkcje gęstości rozkładu oryginalnego wektora $\mathbf{X}$ oraz docelowego wektora $\mathbf{U} \sim \mathcal{N}(0,1)$,
$\Omega_f$, $\Delta_f$ – obszary awarii odpowiednio w przestrzeni oryginalnej oraz w przestrzeni $\mathbf{U}$.
Transformacja przestrzeni $\mathbf{T}$ nie powinna zmieniać wartości $p_f$ i może być złożona z trzech transformacji składowych:
$\mathbf{T1}: \mathbf{X} \mapsto \mathbf{Z}$ – normalizacja rozkładów brzegowych (transformacja do rozkładu normalnego),
$\mathbf{T1^0}: \mathbf{Z} \mapsto \mathbf{Z}^0$ – standaryzacja (wycentrowanie i skalowanie),
$\mathbf{T2}: \mathbf{Z}^0 \mapsto \mathbf{U}$ – dekorelacja wektora $\mathbf{Z}^0$, czyli diagonalizacja macierzy kowariancji.
Ponieważ normalizacja jest przekształceniem nieliniowym i zmienia strukturę korelacji, dekorelacja wykonana przed normalizacją traci sens. Kolejność transformacji nie jest dowolna i powinna mieć postać:
$$ \begin{equation} \mathbf{T} = \mathbf{T1} \rightarrow \mathbf{T1^0} \rightarrow \mathbf{T2}
\label{42}\end{equation} $$
W praktyce, np. w metodzie Natafa, operacje normalizacji i standaryzacji realizowane są w jednym kroku $\mathbf{T1}$ (łącznie z $\mathbf{T1^0}$)
.
Problem transformacji $\mathbf{X} \rightarrow \mathbf{U}$ był przedmiotem licznych prac, m.in.: Hohenbichler–Rackwitz (1981), Engelund–Rackwitz (1993) , Stocki (1999, 2010), ,Kolanek (2006),
Knabel (2004) , Winkelmann (2013) , oraz liczne inne prace.
Normalizacja – mapowanie rozkładu $X$ do normalnej przestrzeni $Z$
Mapowanie dystrybuanty zmiennej losowej
Transformację $\mathbf{T1}$ zmiennej losowej $X_i$ na zmienną losową $Z_i$ można opisać wyrażeniem:
$$ \begin{equation} z_i = \Phi_{Z_i}^{-1} \left[ F_{X_i}(x_i) \right] \label{43}\end{equation} $$
Natomiast odwrotne mapowanie przedstawia wzór:
$$ \begin{equation} x_i = F_{X_i}^{-1} \left[ \Phi_{Z_i}(z_i) \right] \label{44} \end{equation} $$
O normalizacji zmiennej losowej mówimy wówczas, gdy mapowanie prowadzone jest do dystrybuanty normalnej $\Phi_{Z_i}(z_i)$, czyli w kierunku uzyskania zmiennej $Z_i$ o rozkładzie normalnym. Taką operację zapisujemy w postaci
$$ \begin{equation} X \mapsto U \sim \mathcal{N}(0,1) \quad \text {z zachowaniem izoprawdopodobieństwa} F_X(x) = \Phi_Z(z) \label{45} \end{equation} $$
Najczęściej stosowane metody normalizacji zmiennych stanu (transformacja $\mathbf{T1}$) zestawiono w tab. 12.
Zasada Rosenblatta
Klasyczna procedura normalizacji Rosenblatta (1952)
,
przekształca kolejne składowe skorelowanego wektora losowego $\mathbf{X}$
zgodnie z następującą sekwencją transformacji izoprawdopodobieństwowej:
$$ \begin{equation}\begin{cases}
\Phi(u_1) = F_{X_1}(x_1), \\
\Phi(u_2) = F_{X_2}(x_2 \mid x_1), \\
\Phi(u_3) = F_{X_3}(x_3 \mid x_1, x_2), \\
\quad \vdots \\
\Phi(u_i) = F_{X_i}(x_i \mid x_1, x_2, \ldots, x_{i-1}),
\end{cases} \label{46}\end{equation}$$
gdzie $F_{X_i}(x_i \mid x_1, x_2, \ldots, x_{i-1})$ oznacza dystrybuantę
warunkowego rozkładu prawdopodobieństwa zmiennej losowej $X_i$
pod warunkiem zajścia zdarzenia
$\{X_1=x_1, X_2=x_2, \ldots, X_{i-1}=x_{i-1}\}$.
Dystrybuantę warunkową można zapisać w postaci:
$$ \begin{equation} F_{X_i}(x_i \mid x_1, x_2, \ldots, x_{i-1}) =\int_{-\infty}^{x_i} \frac{f_{X_1,\ldots,X_i}(x_1, x_2, \ldots, x_{i-1}, t)}{f_{X_1,\ldots,X_{i-1}}(x_1, x_2, \ldots, x_{i-1})}
\, dt, \label{47}\end{equation}$$
gdzie:
$f_{X_1,\ldots,X_i}(\cdot)$ jest wspólną funkcją gęstości prawdopodobieństwa rozkładu zmiennych $(X_1,\ldots,X_i)$,
$f_{x_i}(x_1,x_2,\ldots,x_i)$ – funkcja gęstości prawdopodobieństwa rozkładu brzegowego.
Transformacja Rosenblatta nie jest jednoznaczna. Kolejność transformacji składowych wektora losowego $\mathbf{X}$ można wybrać na $n $ sposobów. Kolejność ta wpływa na kształt obszaru awarii w gaussowskiej przestrzeni standardowej $\mathbf{U}$. Z kolei od kształtu obszaru awarii w tej przestrzeni zależy efektywność algorytmów analizy niezawodności, w szczególności metod FORM/SORM oraz algorytmów symulacyjnych ukierunkowanych na rzadkie zdarzenia.
Jeżeli dystrybuanta $F_{X_i}$ nie ma postaci analitycznej, transformacja Rosenblatta wymaga zastosowania całkowania numerycznego,co znacząco zwiększa koszt obliczeń ,.
Niejednoznaczność transformacji Rosenblatta daje jednak możliwość doboru kolejności zmiennych z punktu widzenia dokładności oraz kosztu obliczeń. Dobór ten powinien być analizowany indywidualnie dla każdego rozpatrywanego zagadnienia inżynierskiego.
W praktyce zasadę Rosenblatta stosuje się w ten sposób, że transformację (\ref{47}) przeprowadza się oddzielnie dla każdej składowej wektora $\mathbf{X}$, to znaczy kolejno dla każdej zmiennej losowej $X_i$, a wektor $\mathbf{Z}$ składa się z tak otrzymanych zmiennych $Z_i$, gdzie $i=1,\ldots,n$, a $n$ jest liczbą zmiennych stanu.
Ma to istotne konsekwencje praktyczne:
1) transformacja normalizacji $\mathbf{T1}$ nie jest wrażliwa na zróżnicowanie typów rozkładów brzegowych poszczególnych składowych wektora $\mathbf{X}$,
2) normalizacja poszczególnych zmiennych $X_i$ może być prowadzona różnymi metodami, dostosowanymi do typu rozkładu brzegowego danej zmiennej,
3) w przypadku, gdy normalizację zmiennej $X_i$ można przeprowadzić analitycznie, należy to wykorzystać w celu ograniczenia kosztu transformacji oraz poprawy stabilności obliczeń.
Oprócz transformacji Rosenblatta do normalizacji wektora stanu konstrukcji stosowane są również inne procedury transformacji,w szczególności: transformacja Hohenbichlera–Rackwitza , transformacja Natafa , transformacja Liu–Der Kiureghiana , transformacje analityczne wyższych rzędów, np. metoda zaproponowana przez Lu i in. , oraz liczne inne modyfikacje i uogólnienia opracowane na potrzeby analizy niezawodności konstrukcji.
Normalizacja – mapowanie analityczne
Normalizacja analityczna jest taką transformacją $T^A$,
$T^A : X \mapsto Z$, czyli $Z = T^A(X)$,
dla której postać $T^A(\cdot)$ jest znana jawnie (w postaci wzoru), bez konieczności numerycznego odwracania dystrybuanty.
Związek pomiędzy transformacją $T^A$ a estymatorami parametrów rozkładu jest ścisły. Analityczne formuły estymatorów parametrów rozkładów, wyrażone przez estymatory dystrybuanty empirycznej (z próby), są jednocześnie formułami normalizacji analitycznej.
Przypadek trywialny : normalizacji rozkładu Gaussa
Dla trywialnego przypadku rozkładu normalnego (Gaussa) $X \sim \mathcal{N}(\mu_X,\sigma_X^2)$
estymatorami parametrów rozkładu, wyznaczanymi z próby są:
– średnia z próby $m_X$ jako estymator wartości oczekiwanej $\mu_X$,
– odchylenie standardowe z próby $s_X$ jako estymator $\sigma_X$,
co można zapisać w postaci:
$$ \begin{equation} \mu_X \approx m_X = \overline{x}= \frac{1}{N} \sum\limits_{i=1}^{N} x_i \label{48} \end{equation}$$
$$ \begin{equation}\sigma_X \approx s_X = \sqrt{\frac{1}{N-1} \sum\limits_{i=1}^{N} (x_i – m_X)^2} \label{49} \end{equation}$$
co jest równoważnie zapisowi:
$$ \begin{equation} \sigma_X \approx s_X = \sqrt{\frac{1}{N-1} \sum\limits_{i=1}^{N} x_i^2 – m_X^2} \label{50} \end{equation}$$
$$ \begin{equation} v_X = \frac{s_X}{m_X} \label{51} \end{equation}$$
gdzie:
$x_i \ (i=1,\ldots,N)$ – wyniki pomiarów z próby o liczebności $N$,
$v_X$ – współczynnik zmienności zmiennej losowej $X$.
Transformacja $T^A$ w tym przypadku polega na przyjęciu estymatorów parametrów rozkładu w postaci:
$T^A : [\, \mu_X \approx m_X;\ \sigma_X \approx s_X \,]$,
czyli zastąpieniu nieznanych parametrów rozkładu ich estymatorami z próby, co można zapisać symbolicznie jako:
$T^A : Z = X(m_X, s_X^2)$.
W przypadku normalizacji połączonej ze standaryzacją otrzymuje się zmienną o rozkładzie normalnym standaryzowanym:
$$ T^A : U = \cfrac{X – m_X}{s_X}.$$
Normalizacja analityczna rozkładów najczęściej spotykanych w teorii konstrukcji budowlanych
Dla najczęściej spotykanych rozkładów zmiennych losowych w konstrukcjach budowlanych możliwe jest przeprowadzenie normalizacji analitycznej bez stosowania metod numerycznych zestawionych w tab. 12, co istotnie zmniejsza koszt obliczeń oraz czas ich wykonania. Estymatory parametrów takich rozkładów zestawiono w tab. 6. Podane tam formuły stanowią bezpośrednio parametry rozkładu normalnego otrzymywane w transformacji $T^A$. Formuły normalizacji analitycznej pokrywają się z estymatorami parametrów rozkładów wyznaczanymi metodą momentów (zestawionymi w tab. 7) lub metodą największej wiarygodności (zestawionymi w tab. 8). Metoda największej wiarygodności daje z reguły estymatory o lepszych własnościach statystycznych oraz dokładniejszą normalizację, w szczególności w obszarach „ogonów” rozkładów, w porównaniu z metodą momentów.
W przykładzie 5 przedstawiono wyprowadzenie formuł normalizacji analityczne rozkładu log-normalnego, Gumbela min oraz Weibulla max i min.
Dekorelacja – transformacja dowolnego wektora losowego do postaci wektora o nieskorelowanych współrzędnych
Oryginalne zmienne stanu konstrukcji zebrane w wektor $\mathbf{X}$ są skorelowane. Korelacja ta może mieć charakter statystyczny, wynikający z danych doświadczalnych i analiz statystycznych, lub funkcjonalny, np. w przypadku niezawodnościowych układów mieszanych, szeregowo–równoległych. Zadanie niezawodnościowe ulega istotnemu uproszczeniu po sprowadzeniu go do analizy układu zmiennych losowo niezależnych.
Omówione wcześniej przekształcenie normalizacji $\mathbf{X}\rightarrow\mathbf{Z}^0$ eliminuje jednostki, skale i przesunięcia, lecz nie eliminuje korelacji pomiędzy składowymi wektora. Dopiero dekorelacja $\mathbf{Z}^0\rightarrow\mathbf{U}$ eliminuje liniowe sprzężenie składowych wektora i powoduje, że zadanie niezawodnościowe redukuje się do analizy układu zmiennych losowo niezależnych zestawionych w wektorze $\mathbf{U}$, co prowadzi do znacznego uproszczenia procedur obliczeniowych oraz interpretacji uzyskiwanych wyników.
Kanoniczna reprezentacja wektora losowego (Pugachev)
Zadanie dekorelacji można przeprowadzić poprzez rozwiązanie problemu własnego macierzy korelacji, co jednak wiąże się z koniecznością wykonania dużej liczby elementarnych przekształceń ortogonalnych. Jeżeli odstąpi się od wymagania ortogonalności (standaryzacji) macierzy transformacji, to dekorelację można wykonać dużo mniejszym kosztem obliczeniowym i to nieskończenie wielu przekształceń liniowych. Efektywne przekształcenie nazywane rozkładem kanonicznym przedstawił Pugachev (1979) ).
Jeśli wycentrowany wektor losowy $\mathbf{Z}^0$ ma macierz kowariancji $\mathbf{C}{zz}=\mathrm{Cov}(\mathbf{Z}^0)$, to wystrczy znaleźć macierz przekształcenia $\mathbf{A}$ dla której zachodzi:
$$ \begin{equation} \mathbf{C}_{zz} = \mathbf{A}\,\mathbf{C}_{uu}\,\mathbf{A}^T \label{52} \end{equation} $$
gdzie $\mathbf{C}{uu}=\mathrm{diag}(d_1,\ldots,d_n)$.
Odpowiada to liniowemu przekształceniu zmiennych losowych
$$ \begin{equation} \mathbf{Z^0} = \mathbf{A}\,\mathbf{U} \label{53}\end{equation}$$
gdzie $\mathbf{Z}^0$ – jest wektorem wycentrowanym (standaryzowanym).
W wyniku tej transformacji współrzędne wektora $\mathbf{U}$ są wzajemnie nieskorelowane, a macierz kowariancji $\mathbf{C}_{uu}$ ma postać diagonalną.
Algorytm kanoniczny Pugachev’a do wyznczenia macierz kowariancji $\mathbf{C}_{uu}= diag [k_i ]_{(n×n)}$, wektora $\mathbf{U}$ oraz macierz przekształcenia $\mathbf{A} = [a_{ij} ]_{(n×n)}$ można zapisać w następujacy sposób
$$ \begin{equation} d_k = c_{kk} – \sum \limits _{i=1}^{i=k-1} d_i | a_{ik}|^2 , \quad (k=1,\cdots , n) \label{54}\end{equation} $$
$$ \begin{equation} a_{kj} =\begin {cases}
0 ,& \text {dla } (j=1, \cdots , k-1) \\
1 ,& \text {dla } (j=k) \\
\cfrac{1}{d_k} \left ( c_{jk} – \sum \limits _{i=1}^{i=k-1} d_j \cdot a_{ij} \cdot \overline a_{ik} \right), & \text {dla } (j=k+1, \cdots, n) \\
\end {cases} \label{55} \end{equation} $$
Dla k=1 należy przyjąć: $d_1 = c_{13}$, $a_{1j} =\cfrac{c_{j1}}{d_1}$.
Jeżeli w trakcie obliczeń wystąpi $d_k=0$, to przyjmuje się $a_{kj}=0$ dla $j=1,\ldots,n$, co oznacza brak dalszej informacji niezależnej w danym kierunku.
Rozkład kanoniczny w sensie Pugacheva nie stanowi nowego odkrycia matematycznego w zakresie faktoryzacji macierzy symetrycznych, gdyż jego struktura odpowiada znanym wcześniej rozkładom typu $\mathbf{LDL}^T$. Oryginalność ujęcia Pugacheva polega jednak na probabilistycznej interpretacji algorytmu, w szczególności na powiązaniu zaniku wyrazów diagonalnych $d_k$ z utratą niezależnej informacji losowej oraz na zastosowaniu tej reprezentacji do analizy wektorów losowych w zagadnieniach inżynierskich i dynamicznych.
Dekompozycja Cholesky
W teorii niezawodności nie stosuje się ogólnego algorytmu ($\ref{54}$) – ($\ref{55}$), lecz jego szczególny przypadek – metodę pierwiastka kwadratowego Cholesky’ego sformułowaną w roku 1910 i publikowaną pośmiertnie , w której macierz kowariancji spełnia zależność
$$ \begin{equation} \mathbf{C}_{zz}=\mathbf{L}\mathbf{L}^T\label{56}\end{equation}$$
gdzie $\mathbf{L}$ jest dolnotrójkątną macierzą Cholesky’ego.
W sensie tej dekompozycji zachodzi relacja
$$ \begin{equation} \mathbf{Z}^0=\mathbf{L}\mathbf{U}\label{57}\end{equation}$$
Algorytm numeryczny dekompozycji Cholesky’ego, analogiczny w formie do algorytmu kanonicznego, można zapisać następująco:
Dla $k=1,\ldots,n$ wyznacza się elementy macierzy $\mathbf{L}=[l_{ij}]$ z zależności
$$ \begin{equation} l_{kk}=\sqrt {c_{kk}-\sum_{i=1}^{k-1} l_{ki}^2} \label{58}\end{equation}$$
$$ \begin{equation} l_{jk} = \begin{cases}
\cfrac{1}{l_{kk}}\left(c_{jk}-\sum_{i=1}^{k-1} l_{ji}l_{ki}\right), & \text{ dla } j=k+1,\ldots,n $\\
0 , & \text { dla }j< k\\
\end{cases} \label{59}\end{equation}$$
gdzie $c_{jk}$ są elementami macierzy kowariancji $\mathbf{C}_{zz}$.
Jeżeli w trakcie obliczeń wystąpi $l_{kk}=0$, dalsza dekompozycja nie jest możliwa, co oznacza, że macierz kowariancji nie jest dodatnio określona. Dekompozycja Cholesky’ego istnieje wyłącznie dla macierzy symetrycznych dodatnio określonych.
W sensie dekompozycji Cholesky zachodzi relacja
$$ \begin{equation} \mathbf{Z}^0 =\mathbf{L}\mathbf{U} \label{60}\end{equation}$$
Metoda Pugacheva a Cholesky’ego
Z porównania (53) i (57) wynika identyfikacja macierzy transformacji
$$ \begin{equation} \mathbf{A}=\mathbf{L} \quad \text {oraz } \quad \mathbf{U}=\mathbf{A}^{-1}\mathbf{Z}^0=\mathbf{L}^{-1}\mathbf{Z}^0\label{61}\end{equation}$$
Rozkład kanoniczny w sensie Pugacheva oraz dekompozycja Cholesky’ego są ze sobą ściśle powiązane. Jeżeli w rozkładzie kanonicznym macierzy kowariancji zachodzi zależność $\mathbf{C}{zz}=\mathbf{A}\mathbf{D}\mathbf{A}^T$, gdzie $\mathbf{D}=\mathrm{diag}(d_k)$ jest diagonalną macierzą wariancji niezależnych składowych, to po wprowadzeniu macierzy
$\mathbf{L}=\mathbf{A}\mathbf{D}^{1/2}$, otrzymuje się klasyczną dekompozycję Cholesky’ego w postaci $ \mathbf{C}{zz}=\mathbf{L}\mathbf{L}^T$.
Dekompozycja Cholesky’ego jest szczególnym przypadkiem rozkładu kanonicznego, w którym wariancje niezależnych składowych losowych zostały wchłonięte w strukturę dolnotrójkątnej macierzy transformacji.
Rozkład kanoniczny Pugacheva oraz dekompozycja Cholesky’ego prowadzą do tego samego celu formalnego, tj. sprowadzenia skorelowanego wektora losowego do postaci wektora o nieskorelowanych współrzędnych, jednak różnią się istotnie pod względem algorytmu numerycznego, stabilności oraz możliwości interpretacyjnych. Dekompozycja Cholesky’ego stanowi szczególny przypadek rozkładu kanonicznego, wyspecjalizowany do macierzy symetrycznych i dodatnio określonych. Jej podstawową zaletą jest bardzo wysoka stabilność numeryczna oraz efektywność obliczeniowa, co czyni ją szczególnie użyteczną w analizach wymagających wielokrotnego powtarzania transformacji.
Metoda kanoniczna Pugacheva umożliwia dekorelację dowolnej dodatnio półokreślonej macierzy kowariancji, bez narzucania struktury trójkątnej i bez wymogu dodatniej określoności na każdym etapie obliczeń. Dzięki temu metoda ta ujawnia zanik informacji losowej w poszczególnych kierunkach przestrzeni stanu (przypadki $d_k=0$), co ma istotne znaczenie interpretacyjne. Jej wadą jest natomiast mniejsza stabilność numeryczna oraz wyższy koszt obliczeniowy dla układów o dużym wymiarze.
Z punktu widzenia modelu dynamicznego obie metody mają wyraźnie odmienne, komplementarne zalety. Metoda Pugacheva pozwala interpretować redukcję wymiaru losowego jako efekt degradacji, starzenia lub deterministycznego wiązania zmiennych w czasie. Metoda Cholesky’ego jest natomiast bardziej wydajna w analizach sekwencyjnych i czasowych, gdzie struktura dolnotrójkątna macierzy $\mathbf{L}$ odpowiada krokowej naturze propagacji niepewności w czasie.
Obie metody znajdują zastosowanie w analizie modelu dynamicznego w zależności od skali problemu i celu analizy, przy czym metoda Pugacheva dostarcza bogatszej informacji strukturalnej o ewolucji losowości systemu.
Wektor stanu U w przestrzeni niezależnej Gaussa
Przejście z przestrzeni zmiennych standaryzowanych $\mathbf{Z}^0$ do przestrzeni niezależnej Gaussa $\mathbf{U}$ realizuje się zatem za pomocą transformacji
$$ \begin {equation} \mathbf{U} = \mathbf{L}^{-1} \mathbf{Z}^0 \label {62} \end{equation}$$
Transformacja ta eliminuje korelacje i prowadzi do przestrzeni, w której elipsoidy gęstości prawdopodobieństwa przechodzą w hipersfery. Przestrzeń ta stanowi podstawę geometrycznej definicji punktu najbardziej prawdopodobnego oraz współczynnika niezawodności $\beta=|\mathbf{U}^*|$, a także jego uogólnień, w tym $\tilde{\beta}$, rozumianych jako pierwotne, geometryczne miary niezawodności.
Metody probabilistyczne drugiego poziomu
Metody probbilistyczne drugiego poziomu posługują się aproksymacją powierzchni granicznej $g(\mathbf{X})$ ($\ref{20}$) w szereg Taylora w otoczeniu punktu NPP (rys. 1), zwanego też punktem obliczeniowym $\mathbf{X}^*$, W zależności od liczby zachowanych wyrazów rozwinięcia ($\ref{63}$) następuje dalsza klasyfikacja metod drugiego poziomu na rzędy:
- rząd 1-szy w metodzie FORM – zachowany jest tylko liniowy człon (z wrażliwościami pierwszego rzędu$\nabla$ . Metoda jest często nazywana linearyzacją powierzchni granicznej,
- rząd 2-gi w metodzie SORM – zachowany jest człon drugiego rzędu (z wrażliwościami drugiego rzędu $\nabla^2$. Metoda jest często nazywana parabolizacją powierzchni granicznej.
Procedury obliczeniowe metody FORM i SORM są szczegółowo opisana w probcach Ditlevsena (1981) , Ang-Tang (1984), Rackwitz’a (1976) , Madsen’a i in. (1986) , Melchers’a (1987) , Dai i Wang (1992) oraz Tichy’ego (1993) ,
Na rys. 15 za pracą ) przedstawiono schemat blokowy obliczeń obiema metodami.

Rys. 5 Metody drugiego poziomu. Odmiany i autorzy )
Na rys 15 odwołano się do głównych twórców metody SORM: Breitung’a (1984) , Tvedt’a (1984) , Hohenbichler-Rackwitz (1988) , Köylüolu (1994) , Cai (1994), , Zhao (1999) , Mansour (2016) , metody SOSPA autorów Hu-Zu (2018) , Park-Lee
Metoda niezawodności pierwszego rzędu (FORM)
Najprostszą metodą zaliczaną do metod probbilistycznych 2. poziomu jest metoda niezawodności pierwszego rzędu FORM, której nazwa jest skrótem od First Order Reliability Method, w której w konsekwencji linearyzacji powierzchni granicznej, do analizy wystarczy znajomość tylko dwóch pierwszych momentów statystycznych wektora stanu $\mathbf{X}$: wartości oczekiwanych $\mu_{\mathbf{X}}$ oraz wariancji lub odchylenia standardowego $\sigma_{\mathbf{X}}$.
Metodę FORM stosuje się najczęściej w odmianach:
HL (Hasofer -Lind) – klasyczny algorytm FORM, najprostsza implementacja,
RF (Rackwitz-Fiessler) – najlepsza przy silnie nienormalnych zmiennych (log-normalne, Gamma itp.).
HLRF (Hasofer-Lind-Rackwitz-Fiessler) – połączenie metod HL i RF,
iHLRF (improved HLRF) – stabilizacja zbieżności (np. „line-search”),
TFORM (Tvedt’s FORM) – ulepszone przez odwzorowanie krzywizny g(X),
CDFORM (Conjugate-Direction FORM)- ulepszona zbieżność przy „płaskich” funkcjach stanu
Metodę RF stosuje się dla konstrukcji z obciążeniami zmiennymi, w normie PN- EN 1990. Metoda HL/HLEF do ogólnych analiz konstrukcyjnych. Jest najczęściej stosowana w praktyce inżynierskiej (obok RF)i jest standardem w podręcznikach i programach inżynierskich. Metoda iHLRF stosowana jest w modelach silnie nieliniowych. Metoda TFORM jest najczęściej stosowana w połączeniu z SORM. Metoda CDFORM stosowana jest w analizach FEA.
Niżej krótko omówiono metodę HL/HLRF oraz metodę RF.
Fundamentalna formuła FORM
Podstawowym problemem metody FORM jest znalezienie punktu NPP (Najbardziej prawdopodobnego Punktu) (amg MPP – MOst probbly Point) $\mathbf {X}^*$, który jest położony na powierzchni granicznej i wokół którego następuje rozwinięcia szeregu Taylora ($\ref{23}$). W punkcie tym następuje maksymalizacja gęstości prawdopodobieństwa powierzchni stanu granicznego, co prowadzi do najdokładniejszego przybliżenia prawdopodobieństwa zniszczenia.
W metodach FORM i SORM punkt ten odpowiada minimum odległości od początku układu współrzędnych w przestrzeni znormalizowanej i jest wyznaczany w procedurze iteracyjnej zaporponowanej po raz pierwszy przez Hasofer i Lind (1974) . Macierzowe sformułowanie procedury wyznaczenie punktu projektowego NPP podano w pracy Ditlevesen’a (1981) , cytującego Veneziano (1974) . W celu wyznaczenia puntu projektowego $ \mathbf {X}^*$ oraz współczynnika niezawodności $\beta$ należy przeprowadzić procedurę optymalizacji, opisaną formułą.
$$ \begin{equation} \beta = \min \limits_{\mathbf{X} \in \Omega_f} \sqrt{ {\mathbf{X}^0}^ T \mathbf{C}_{xx}^{-1} \mathbf{X}^0 } \to \mathbf{X} = \mathbf{X^*} \label{63} \end{equation} $$
gdzie:
$\mathbf{X}^0$ wycentrowany ($\ref{13}$) (często nazywany standaryzowanym) wektor reprezentujący zbiór zmiennych losowych stanu $\mathbf{X}$,
$\mathbf{C}_{xx} $ – macierz kowariancji wektora ($\ref{16}$) ,
$\Omega_f$ – obszar awarii (stanów niedopuszczalnych, zniszczenie) ($\ref{16}$)
$\mathbf{X}*$ punkt obliczeniowy (najbardziej prawdopodobny) NPP (rys.1)
W przypadku gdy zmienne $\mathbf{X}$ są normalne i nieskorelowane, to współczynnik $\beta$ ($\ref{86}$) jest minimalną odległością między punktem wartości oczekiwanej funkcji gęstości prawdopodobieństwa ( początkiem układu współrzędnych), a powierzchnią stanu granicznego. Normalizacja wektora $\mathbf{X}$ istotnie upraszcza procedury obliczeniowe poszukiwania minimum ($\ref{86}$).
Przed procedurą optymalizacji ($\ref{86}$) przeprowadza się: przekształcenie zmiennych pierwotnych $\mathbf{X}$ do tzw. U-space , czyli przestrzeni nieskorelowanych i wycentrowanych zmiennych normalnych $\mathbf {U}$.
Po przeprowadzeniu transformacji do U-space równanie powierzchni granicznej ($\ref{20}$) przyjmuje postać
$$ \begin{equation} g_u (\mathbf{U}) = 0\label{64} \end{equation} $$
a warunek ($\ref{86}$) redukuje się do
$$ \begin{equation} \beta = \min \sqrt{ [ \mathbf{U}^T \mathbf{U}} , \text {przy ograniczeniu } g_u ( \mathbf{U}) =0 \label{65} \end{equation} $$
z którego uzyskuje się punkt NPP $\mathbf{U}^*$,. Odległość NPP od początku układu współrzędnych do powierzchni stanu granicznego jest najmniejsza ze wszystkich punktów leżących na powierzchni granicznej.
W przypadku liniowej (zlinearyzowanej) powierzchni granicznej z podstawowej własności U-space czyli addytywności rozkładu normalnego wynika, że w sposób ścisły również liniowa funkcja stanu granicznego ma rozkład normalny.
Dla powierzchni granicznej zapisanej w formie marginesu bezpieczeństwa ($\ref{20}$) $g = M= R – E$, gdzie: R – losowa wytrzymałość o rozkładzie $ \mathcal N ( \mu_R,\sigma_R)$, E – losowe obciążenie,$ \mathcal N ( \mu_E ,\sigma_E) $, zachodzi
$$ \begin{equation} \mathcal N ( \mu_M, \, \sigma_M) = \mathcal N (\mu_R – \mu_E , \, \sqrt{\sigma_R^2 +\sigma_E^2}) \label{66} \end{equation} $$
Praktyczne procedury poszukiwania NPP z zastosowaniem arkusza obliczeniowego
probktyczną procedurę analizy niezawodności dla skorelowanych rozkładów nienormalnych z zastosowaniem powszechnie dostępnych arkuszy obliczeniowych, np Microsoft Excel opisali Low-Tang (1997) . Algorytm możliwy do zaimplementowania w arkuszu kalkulacyjnym wykorzystuje obiektową optymalizację z ograniczeniami. Do wyznaczenia pochodnych numerycznych i iteracyjnego wyszukiwanie punktu projektowego wykorzystuje się standardowe funkcje arkusza.
Narzędzie optymalizacyjne znajduje się w arkuszu Microsoft Excel z dodatkiem Solver ( też: Lotus 123 i Quattro Pro). Dodatek Solver umożliwia optymalizację różnymi metodami, w tym: 1) nieliniową GEG (uogólniony zredukowany gradient) stosowaną w przypadkach, gdy relacje między zmiennymi a komórką celu są „gładkie” (ciągłe i różniczkowalne), 2) prosty algorytm sympleksu (LP simpleks), przeznaczony do liniowych problemów (funkcja celu i wszystkie ograniczenia muszą być liniowymi wyrażeniami), 3) metoda ewolucyjna, dla problemów o charakterze niegładkim, czyli takich, w których relacje między zmiennymi a komórką celu nie są gładkie.
Do optymalizacji problemu $(\ref{88}$) dla przestrzeni zmiennych normalnych, przy zlinearyzowanej powierzchni granicznej, czyli w metodzie FORM wystarcza metoda LP simpleks. Natomiast w metodzie SORM stosuje się najczęściej metodę CEG, a w trudnych przypadkach metodę ewolucyjną.
Metoda Hasofer-Lind (HL)
Klasyczna definicja indeksu Hasofera–Lind, to wynik rozwiązanie problemu (HL):
$$ \begin{equation} \beta_{HL} = \min \limits_U ||\mathbf{U}|| \text { przy warunku } g(\mathbf{U}) =0 \label{67}\end{equation} $$
gdzie $||\mathbf{U}||$ jest normą wektora $\mathbf{U}$ , czyli jego długością:
$$ \begin{equation} ||\mathbf{U}|| =\sqrt{\sum \limits_{(i=1)}^N u_i^2 } \label{68}\end{equation} $$
$N$ – rozmiar wektora $\mathbf{U}$ z wartościami współrzędnych $u_i$
W przypadku funkcji granicznej wyrażonej w postaci ($\ref{20}$) o dwóch zmiennych $U_1$ i $U_2$ formułę ($\ref{99}$ można sprowadzić do zadania jednowymiarowego. z warunku $g(U_1,\, U2)$ wyznaczamy $U_2$ jako funkcję $U_2 (U_1)$ a sprowadzone do problemu jednowymiarowej zadanie optymalizacji można zapisać następująco:
$$ \begin{equation} \beta= \min \limits_{U_1} || U_1|| \text { przy warunku } g(U_1) =0 \label{69}\end{equation} $$
Zadanie ($\ref{103}$) można teraz rozwiązać dowolną standardową procedurą optymalizacji matematycznej, np. z wykorzystaniem dodatku Solver do arkusza kalkulacyjnego Excel .
Iteracje prowadzimy do momentu osiągnięcia zbieżności ocenianej z warunku
$$ \begin{equation} ||U||^{(k+1)} – ||U||^{(k)} \le \varepsilon \label{70}\end{equation} $$
Typowe wartości tolerancji, to $\varepsilon = ( 10^{-6}\div 10^{-4}) $ zależnie od wymagań.
Jako początkowe przybliżenie $U^{(0)}$ można przyjąć wektor zerowy $U^{(0)}=(0,0)$.
Po osiągnięciu zbieżności otrzymujemy:
współrzędne punku NPP $\mathbf{U}^*$ ,
indeks niezawodności $\beta = || U ||^* $,
prawdopodobieństwo awarii $ p_f \approx\Phi^{-1}(\beta)$,
Jednostkowy wektor (ang. importance factors) jest wektorem kosinusów kierunkowych, wyznaczającym kierunek normalny do powierzchni granicznej wystawiony w punkcie NPP $\alpha ^* = \alpha (U^*) $ obliczany z formuły
$$ \begin{equation} \alpha ^{(k)} = \cfrac{\nabla g(U)}{||\nabla g(U)||} \label{71}\end{equation} $$
Metoda Rackwitz-Fiessler (RF)
Metoda Rackwitz–Fiessler (RF), jest zapewne najpopularniejszym wariantem metody FORM i jest zalecona w PN-EN 1990 .
Punkt NPP wyznacza dominujący kierunek awarii i znajduje się przez rozwiązanie problemu optymalizacyjnego
$$ \begin{equation} \beta= \min \limits_{U=(U_R, U_E)} \cfrac{1}{2} \mathbf{U}^T\mathbf{U} \label{72} \end{equation} $$
$$ \begin{equation} \to \text { minimalizuj } \cfrac{1}{2}\parallel U \parallel^2 \text {przy ograniczeniu } g(U)=0 \label{73}\end{equation} $$
Zadanie rozwiązujemy metodą mnożników Lagrange’a $\lambda$.
Z warunków pierwszego rzędu metody mamy warunek stacjonarności problemu
$$ \begin{equation} U + \lambda \nabla g =0 \label{74}\end{equation} $$
a stąd argument funkcji granicznej zapisany z mnożnikiem Lagrange’a
$$ \begin{equation} U = – \lambda \nabla g =0 \label{75}\end{equation} $$
Klasyczna iteracja R-F (Rakwitz-Fiessler) (1978) (w przestrzeni $U$) ma postać:
$$ \begin{equation} U^{(k+1)} = \cfrac{g(U^{(k)})}{|||\nabla g(U^{(k)}) |} \cdot \alpha (U^{(k)}) \label{76}\end{equation} $$
Kryterium zbieżności ($\ref{104}$) stosowane jest też w algorytmie RF, a po zakończeniu procesu iteracji otrzymujemy jednocześnie wielkości wymienione w uwadze pod tym kryterium.
Metoda Hasofer-Lind-Rackwitz-Fiessler (HLRF)
Metoda Hasofer-Lind-Rackwitz-Fiessler (HLRF) jest połączeniem idei metod HL i RF i jest probktycznym algorytm iteracyjnym używanym do znalezienia punktu projektowego NPP. W praktyce to właśnie HLRF (tzn. HL + poprawka RF w iteracyjnym schemacie) jest powszechnie używany, bo daje szybkie zbieżne rozwiązanie dla większości problemów FORM
W kroku k-tym iteracji, znając punkt $U^{(k)}$, obliczamy:
gradient wektora $\nabla g(U^{(k)})$ analogicznie do ($\ref{66}$)
normę gradientu $ ||\nabla g(U^{(k)})||$ analogicznie do ($\ref{112}$)
jednostkowy kierunek normalny ($\ref{105}$) $\alpha ^{(k)} = \cfrac{\nabla g(U^{(k)}}{ ||\nabla g(U^{(k)}|| }$
Liczba $\beta$ (indeks niezawodności) iterowana jest podług formuły
$$ \begin{equation} \beta^{(k+1)} = \cfrac{ \nabla g(U^{(k)}) ^T U^{(k)}- g(U^{(k)})}{\nabla g(U^{(k)})} \label{77}\end{equation} $$
Następnie aktualizujemy punkt
$$ \begin{equation} U^{(k+1)} = \beta^{(k+1)} \cdot \alpha ^{(k)} \label{78}\end{equation} $$
i wykonujemy kolejny krok iteracji.
Algorytm jest dobrze opisany , a kod źródłowy podano na przykład na stronie ffpack.readthedocs.io+1.
Powierzchnia graniczna i niezawodność z wieloma mechanizmami zniszczenia – ujęcie FORM
Rys. 6 przedstawia geometryczną interpretację niezawodności konstrukcji w przestrzeni zmiennych niezależnych Gaussa $(U_1,U_2)$ dla układu z wieloma skorelowanymi mechanizmami zniszczenia. Krzywe $g(M_1)=0$, $g(M_2)=0$ oraz $g(M_3)=0$ oznaczają powierzchnie graniczne odpowiadające poszczególnym mechanizmom zniszczenia rozpatrywanym oddzielnie. Obszar $\Omega_{f,sys}$ stanowi zbiór stanów zniszczenia systemu, zdefiniowany jako suma logiczna obszarów zniszczenia poszczególnych mechanizmów, natomiast $\Omega_{r,sys}$ oznacza obszar stanów bezpiecznych.

Rys.6 . Funkcje graniczne dla wielu mechanizmów zniszczenia
Rozpatruje się konstrukcję opisaną przez zbiór $m$ funkcji granicznych $g_{M_i}(\mathbf{X})$, $i=1,\ldots,m$, odpowiadających różnym mechanizmom zniszczenia. Po normalizacji i dekorelacji zmiennych losowych przechodzi się do przestrzeni niezależnej Gaussa $\mathbf{U}$, w której każdemu mechanizmowi odpowiada powierzchnia graniczna $g_{M_i}(\mathbf{U})=0$.
Dla pojedynczego mechanizmu $M_i$ obszar niezawodności ma postać $\Omega_{r,i}={\mathbf{U}: g_{M_i}(\mathbf{U})>0}$, natomiast obszar zniszczenia $\Omega_{f,i}={\mathbf{U}: g_{M_i}(\mathbf{U})\le 0}$. W przypadku wielu mechanizmów zniszczenia układ ma charakter systemowy. Obszar zniszczenia systemu jest sumą zbiorów zniszczenia poszczególnych mechanizmów $\Omega_{f,\mathrm{sys}}=\bigcup \limits_{i=1}^{m}\Omega_{f,i}$, natomiast obszar niezawodności jest ich częścią wspólną $\Omega_{r,\mathrm{sys}}=\bigcap \limits_{i=1}^{m}\Omega_{r,i}$.
Granica systemowa w przestrzeni $\mathbf{U}$ ma więc postać obwiedni powierzchni granicznych poszczególnych mechanizmów i może być zapisana w sposób zwarty jako $g_{\mathrm{sys}}(\mathbf{U})=\min_{i} g_{M_i}(\mathbf{U})=0$.
Współczynnik niezawodności systemu definiuje się geometrycznie jako minimalną odległość od początku układu współrzędnych do granicy systemowej
$$ \begin{equation} \beta_{\mathrm{sys}}=\min_{\mathbf{U}\in\Omega_{f, sys}}| |\mathbf{U}|| \label{79}\end{equation} $$
Punkt $\mathbf{U}^{}{\mathrm{sys}}$ realizujący to minimum jest punktem najbardziej prawdopodobnego zniszczenia (NPP) systemu i spełnia warunki Karusha–Kuhna–Tuckera. W szczególności istnieje zbiór mechanizmów aktywnych $A\subset{1,\ldots,m}$ taki, że:
$g{M_i}(\mathbf{U}^{}{\mathrm{sys}})=0$ dla $i\in A$,
$g{M_j}(\mathbf{U}^{*}_{\mathrm{sys}})>0$ dla $j\notin A$.
Jeżeli zbiór aktywny zawiera tylko jeden mechanizm, $A={k}$, wówczas punkt systemowy pokrywa się z punktem najbardziej prawdopodobnym tego mechanizmu, a współczynnik niezawodności systemu jest równy $\beta_{\mathrm{sys}}=\beta_{M_k}$.
W tym sensie dla mechanizmów niezależnych lub słabo skorelowanych otrzymuje się klasyczną zależność: niezawodność systemu, to minimum niezawodności mechanizmów zniszczenia:
$$ \begin{equation} \beta_{sys}= \min \limits_i \beta_{M_i} \label{80}\end{equation} $$
co odpowiada sytuacji, w której granica systemowa jest zdominowana przez jeden mechanizm krytyczny.
Odcinki wspólne granicy systemowej – mechanizmy skorelowane
Jeżeli co najmniej dwa mechanizmy są jednocześnie aktywne, tzn. $|A|\ge 2$, punkt systemowy leży na części wspólnej powierzchni granicznych. Dla dwóch mechanizmów $M_i$ i $M_j$ fragment wspólny granicy systemowej można zapisać jako zbiór
$\Gamma_{ij}={\mathbf{U}: g_{M_i}(\mathbf{U})=0,; g_{M_j}(\mathbf{U})=0,; g_{M_k}(\mathbf{U})>0\ \forall k\neq i,j}$.
Granica systemowa ma wówczas strukturę złożoną i może być zapisana jako suma rozłącznych fragmentów
$\partial\Omega_{f,\mathrm{sys}}=\bigcup_i \Gamma_i\ \bigcup\ \bigcup_{i<j}\Gamma_{ij}\ \bigcup\ \bigcup_{i<j<k}\Gamma_{ijk}\ \bigcup\ \ldots$,
gdzie $\Gamma_i$ odpowiada fragmentowi aktywowanemu przez pojedynczy mechanizm, a $\Gamma_{ij}$, $\Gamma_{ijk}$ – fragmentom wspólnym kilku mechanizmów.
Jeżeli punkt najbardziej prawdopodobny zniszczenia leży na fragmencie wspólnym dwóch mechanizmów, współczynnik niezawodności systemu wynika z rozwiązania zadania minimalizacyjnego
$$ \begin{equation} \beta_{sys}= \min \limits_{\mathbf{U}}|| \mathbf{U}|| \label{81}\end{equation} $$
przy ograniczeniach: $g_{M_i}(\mathbf{U})=0$, $g_{M_j}(\mathbf{U})=0$.
W tym przypadku nie obowiązuje prosta reguła minimum z pojedynczych współczynników $\beta_{M_i}$. Wartość $\beta_{sys}$ jest większa od $\min[ \beta_{M_i}, \, \beta_{M_j}] $, lecz mniejsza od obu współczynników liczonych niezależnie, a jej wartość zależy od geometrii przecięcia powierzchni granicznych, czyli w praktyce od korelacji pomiędzy mechanizmami.
Ujęcie geometryczne FORM pozwala jawnie wskazać, który mechanizm lub które ich kombinacje są aktywne w punkcie systemowym. Jest to informacja niedostępna w podejściach czysto probabilistycznych typu „min $p_f$” lub w prostych modelach binarnych.
W przykładzie 8 mechanizmy nośności i użytkowalności nie są niezależne, ponieważ korzystają ze wspólnych zmiennych losowych ($L$, $G$, $S$, częściowo $I$ i $W$). Skorelowanie mechanizmów powoduje, że granica systemowa nie jest prostą obwiednią dwóch niezależnych punktów NPP, lecz posiada fragment wspólny, na którym realizuje się punkt systemowy.
Takie sformułowanie problemu stanowi bezpośrednie przygotowanie do modelu dynamicznego niezawodności. W ujęciu dynamicznym zmienia się w czasie położenie i kształt powierzchni granicznych $g_{M_i}(\mathbf{U},t)=0$, a zanik lub pojawianie się fragmentów wspólnych granicy systemowej odpowiada fizycznym procesom degradacji, starzenia lub zmian schematu pracy konstrukcji. Jawne uwzględnienie korelacji pomiędzy mechanizmami już na poziomie FORM dostarcza inżynierowi informacji o rzeczywistej strukturze zagrożenia i pozwala na algorytmiczne, a nie heurystyczne, przejście do dalszej analizy dynamicznej.
Metoda niezawodności drugiego rzędu (SORM)
W niniejszym artykule nie przedstawiamy szczegółów metody SORM, bowiem większość praktycznych problemów w teorii konstrukcji budowlanych jest wielowymiarowa i stosowanie SORM traci sens szczególnie w sytuacji mało precyzyjnego szacowania parametrów zmiennych stanu, najczęściej o dokładności dużo mniejszej od zysków wynikających z lepszej aproksymacji powierzchni granicznej wokół punktu obliczeniowego. W większości praktycznych problemów inżynierskich wystarczająca jest metoda FORM. Dużo ważniejsze dla praktyki jest jest uwzględnienie procesów degradacji konstrukcji w czasie, co umożliwia niezawodnościowy model dynamiczny konstrukcji budoelanej omówiony w części III pracy,
Metoda SORM została wyczerpująco omówiona w pracy Hu i in.(2021) . W tej pracy pokazano, że metody SORM są bardziej wydajne niż symulacje MC, dla niewielkiej liczby zmiennych losowych (do ok kilkudziesięciu), ale przy zwiększaniu się wymiaru wektora stanu do rozmiarów spotykanych w praktyce m, czyli do tysięcy:
(1) nakład obliczeniowy związany z obliczaniem gradientów różnic skończonych podczas poszukiwania MPP rośnie liniowo wraz z liczbą zmiennych losowych;
(2) konieczna jest duża liczba iteracji w celu uzyskania zbieżności do NPP;
(3) zbieżność do rozwiązania globalnego przy użyciu konwencjonalnych algorytmów optymalizacji NPP staje się coraz mniej prawdopodobna wraz ze wzrostem wymiaru, ze względu na potencjalną obecność lokalnych minimów.
Metoda powierzchni odpowiedzi (RSM)
Początki metody powierzchni odpowiedzi (od ang Response Surface Model) sięgają lat 50-tych, gdy BOX i Wilson oprobcowali metodę \do planowania eksperymentów w chemIII i przemyśle Jej pierwotnym celem było budowanie przybliżonych modeli funkcyjnych na podstawie danych eksperymentalnych, aby zminimalizować liczbę kosztownych testów laboratoryjnych. W latach 70. i 80. RSM zaczęto stosować do: optymalizacji procesów produkcyjnych, zagadnień mechaniki i materiałoznawstwa, problemów numerycznych, gdzie funkcja odpowiedzi jest wynikiem symulacji komputerowych.
Od lat 90. metoda stała się popularna w analizie niezawodności konstrukcji, ponieważ: pełna analiza probbilistyczna (np. metoda Monte Carlo) jest kosztowna, analizy numeryczne (głównie MES,) są iteracyjne i czasochłonne, RSM pozwala stworzyć tańszy model zastępczy („metamodel”). Metoda była rozwijana przez: Bakera, Harr’a, i Rosenblueth’a: , , , , , .
Dziś RSM jest standardem w: ocenie ryzyka uszkodzenia konstrukcji, analizach wrażliwości, probabilistycznej kalibracji norm projektowych. Metoda RSM zastąpiła inne metody szacowania niezawodnoścći, bowiem: modele konstrukcji (np. MES ) są złożone a ich analiza jest kosztowna, a obliczenia probbilistyczne wymagają dziesiątki tysięcy rozwiązań. RSM redukuje koszty obliczeń nawet 100–1000 razy.
Typowe obszarami zastosowań jest: ocena bezpieczeństwa konstrukcji stalowych i żelbetowych, ocena trwałości elementów betonowych (karbonatyzacja, korozja), niezawodność geotechniczna (nośność fundamentów, stateczność skarp), analiza efektów sejsmicznych, analiza zmęczeniowa w mostach i wieżach. Ograniczeniami w stosowaniu metody są: utrata dokładności przy silnie nieliniowym zachowaniu, niejasne kryteria wyboru wyboru punktów próbkowania, zła jakość metamodelu,.
Metoda powierzchni odpowiedzi: 1) umożliwia skuteczną, szybką i tanią analizę niezawodności konstrukcji, 2) często łączy się z FORM, SORM i Monte Carlo, 3) jest obecnie standardem w ocenie bezpieczeństwa konstrukcji budowlanych, gdzie pełna analiza probabilistyczna byłaby zbyt kosztowna.
Powierzchnia odpowiedzi jest modelem zastępczym funkcji stanu granicznego g(X) =0 ($\ref{8}$). Zamiast wykonywać dużą liczbę kosztownych analiz numerycznych konstrukcji, buduje się prostą aproksymację zwaną powierzchnią odpowiedzi, zwykle postaci modelu liniowego, parabolicznego lub wielomianowego wyższego rzędu, albo też modelu kriging (RSM III), lub metod opartych na maszynowym uczeniu
Aproksymację powierzchni odpowiedzi zapiszmy w postaci
$$ \begin{equation} g(\mathbf{X} \approx \hat{g} (\mathbf{X}) \label {82} \end{equation} $$
i ta przybliżona wersja jest następnie używana w obliczeniach probbilistycznych.
W pierwszym kroku aproksymacji powierzchni ogranicza się liczbą losowych zmiennych stanu do zmiennych istotnych (np.tylko: wytrzymałość betonu, grubość elementu, moduł sprężystości, charakterystyka obciążenia wiatrem/śniegiem.). W drugim kroku projektuje się przebieg eksperymentu ( najczęściej numerycznego). Następnie przeprowadza się analizy numeryczne. W wybranych punktach wyznacza się rzeczywistą wartość na powierzchni $g(\mathbf{X}) (np za pomocą MES, analizy plastyczności, symulacji dynamicznej).
Na podstawie znajomości wybranych punktów na powierzchni granicznej konstruuje się powierzchnię odpowiedzi w założonej postaci funkcyjnej (najczęściej powierzchni drugiego stopnia . Dopasowanie założonej powierzchni do znanych punktów prowadzi się metodą e=regresji nieliniowej, RSM opartym na krigingu, lub z wykorzystaniem sieci neuronowych(tzw meta-modelling).
W ostatnim kroku oblicza się niezawodność konstrukcji $p_f$ ($\beta$), stosując metody FORM, SORM lub szybką symulację Monte Carlo.
Metoda symulacji Monte Carlo (MMC)
Klasyczna metoda MCC
Metoda Monte Carlo, to intuicyjna, odznaczająca się dużą prostotą, uniwersalna metoda, za pomocą której można rozwiązać złożone, dowolnie nieliniowe, uwikłane i sprzężone zagadnienia techniki, w tym konstrukcji budowlanych . Szybka metoda Monte Carlo realizuje postulat zmniejszenia kosztowności metody, mierzonej liczbą potrzebnych cykli obliczeniowych. SMCC z powodzeniem zastępują klasyczne metody szacowania współczynnika niezawodności konstrukcji budowlanych (SORM /FORM) i coraz częściej są realizowane w połączeniu z metodą genetyczną i warstwowania zgodnie z ideą hiperkostek łacińskich, a także szeregami Neumanna.
Metoda Monte Carlo (MCC) służy do rozwiązywania przede wszystkim zadań losowych, ale również zadań nielosowych, jak np: złożonych całek, równań różniczkowych, równań nieliniowych, wyznaczenie ekstremum funkcji , .
Metodę MCC można stosować do wszystkich tych zagadnień, w których zawodzą metody analityczne. Można do nich zaliczyć: niezawodność systemów o złożonym układzie elementów, analizę systemów o zależnych czasach pracy i awarii urządzeń i inne .
Pierwsze szerokie zastosowanie metody MCC w roku 1944 przez von Neumanna umożliwiło zrozumieć fundamentalną ideę reakcji łańcuchowej, co pozwoliło domknąć prace nad bombą atomową. MMC jest obecnie jedyną metodą pozwalającą na na obliczenie charakterystyk reakcji jądrowych przy dostatecznie, zbieżnych z realnymi warunkami, ogólnych założeniach fizycznych.
Poprawność metody MCC w przypadku obliczania pól lub całek można udowodnić stosując twierdzenie Picka , skąd wynika , że metoda jest słuszna dla dowolnego kształtu pola lub granic całki.
W każdym przypadku, istotą metody MCC jest losowanie, rozumiane jako przypadkowy wybór, wartości zmiennych występujących w zagadnieniu. Losowanie jest dokonywane zgodnie z rozkładem statystycznym, który musi być znany. Stosowanie metody MC jest nierozłącznie związane z rozwojem metod numerycznych oraz programami komputerowymi. Przykładem programów do oceny niezawodności konstrukcji budowlanych z zastosowaniem prostej MCC jest zestaw programów symulacyjnych , opisany w , a obejmujący kilka programów:
Dokładność wyniku uzyskanego w metodzie MC jest zależna przede wszystkim od liczby losowań (sprobwdzeń) oraz jakości użytego generatora liczb pseudolosowych. Dokładność metody zwykle zwiększa się wraz ze wzrostem liczby prób. Niesamowity i nieustanny wzrost mocy obliczeniowej komputerów oraz wprowadzanie nowych technologIII do algorytmów numerycznych wskazuje na to, że nieunikniony jest powrót do stosowania metody MC i zmniejszenie znaczenia metod linearyzacji stosowanych wraz z metodami perturbacji zagadnień. Poprawa jakości generatorów liczb losowych jest ważna, bowiem generator liczb pseudolosowych ma skończenie wiele liczb losowych w cyklu i zwiększanie liczby prób ponad liczbę losowań w cyklu nie zawsze zwiększa dokładność wyniku.
Zamiast rozwijania metod aproksymacyjnych należy skupić się nad poprobwą jakości generatorów liczb pseudolosowych oraz doskonalenia metody Monte Carlo w kierunku rozwijania Szybkich Metod Monte Carlo , których klasycznym przykładem jest symulacja według funkcji ważności, próbkowanie adaptacyjnego, warstwowanie mechanizmem hipersześcianów łacińskich, stosowanie: zmiennej kontrolnej, średniej ważonej, obniżania krotności całki, klasycznego losowania warstwowego i in.. Współcześnie rolę taką przejmują metody genetyczne (sieci neuronowe).
Ze względu na dynamiczny rozwój technik informatycznych i technologIII komputerowych – autor niniejszego artykułu przewiduje, że w szybkim czasie szybka metoda Monte Carlo zastąpi stosowane obecnie, aproksymacyjne, probbilistyczne metody. a w tym zaawansowaną metodę drugiego momentu (Advanced Second Moment ASM) która umożliwia wyznaczenie współczynnika niezawodności konstrukcji Hasofera-Linda z zachowaniem postulatu niezmienniczości .
Stosowane współcześnie konstrukcje zmierzają do optymalności z warunku zużycia materiału, co powoduje że, stosuje się coraz powszechniej konstrukcje bliskie osobliwym, które są z reguły układami wysoce nieliniowymi zarówno geometrycznie jak i materiałowo, a także wrażliwych na utratę stateczności. To właśnie takie konstrukcje optymalne są szczególnie narażone na imperfekcje parametrów i ich analiza deterministyczna traci sens. W ich przypadku niestety zawodzą równiż klasyczne metody probbilistyczne. Stąd wielka waga i renesans metod Monte Carlo, stosowanych zamiennie lub łącznie z klasycznymi metodami analizy niezawodności konstrukcji (FORM/SORM) Dlatego tak ważne jest udoskonalenie metody symulacji Monte Carlo poprzez wykorzystanie koncepcji tzw. optymalnej hiperkostki łacińskiej (ang. optimal Latin Hypercube – OLH) lub metody genetyczne.
Ze względu na wielowymiarowość i uwikłanie zagadnień praktycznych, objawiający się na przykład: szybkim wzrostem rozmiaru zadania wraz ze zwiększaniem się liczby elementów, rozkład momentów funkcji niezawodności innym niż normalny czy potęgowy, często silnymi nieliniowościami – analizę niezawodnościową DSK (Dużego Systemu Konstrukcyjnego) można efektywnie prowadzić wyłącznie metodą Monte-Carlo . W przypadku DSK inne metody w tym aproksymacyjne szeregami Taylora zawodzą, przede wszystkim ze względu na błędy pasożytnicze (maszynowe, procesora komputera), objawiające się szybkim zmniejszaniem dokładności rozwiązania wraz ze zwiększaniem rozmiaru zadania.
Przy założeniu niezależności poszczególnych symulowanych realizacji ocena (estymator) prawdopodobieństwa awarii DSK Pf w analizowanym okresie wynosi po prostu:
$$ \begin{equation} P_f = \cfrac{n_f}{N}\label {83} \end{equation} $$
gdzie nf – jest liczbą realizacji spośród wszystkich N dla których system „wyskoczył” z obszaru dopuszczalnego w dowolnym miejscu (elemencie) i dla dowolnego kryterium jakości.
W celu otrzymania oszacowania Pf ze względnym błędem średniokwadratowym $\delta=\cfrac{\sigma_{p_f}}{p_f}$ należy przeprowadzić nie mniej realizacji niż wynika to z formuły:
$$\begin{equation} N = \cfrac{1-P_f}{P_f \cdot \delta^2}\label {84} \end{equation} $$
Przykładowo dla Pf= 10-4 (wymaganego dla konstrukcji budowlanych prawdopodobieństwa zniszczenia i dla błędu oszacowania 10% mamy N=106. W praktyce przeprowadzenie tak dużej liczby symulacji byłoby bardzo kosztowne i długotrwałe. Dlatego w analizie BSK ważne są szybkie metody MCC, pozwalające zmniejszyć wymaganą liczbę symulacji nawet o kilka rzędów.
Szybka Metoda Monte Carlo (SMMC)
Szybka metoda Monte Carlo jest odmianą prostej, ogólnej metody MCC, polegającą na zwiększeniu efektywności (szybkości) metody podstawowej, poprzez wykorzystanie dodatkowych informacji o równaniu systemu (powierzchni granicznej) oraz o mierze, względem której wykonuje się operację (najczęściej całkowanie funkcji prawdopodobieństwa) .
Algorytmy redukcji wariancji, czyli procedury pozwalające na zwiększenie precyzji estymacji, polegają na odpowiednim doborze próby (ang. sampling), tak aby zmienność wyników symulacji była jak najmniejsza. Rezultat taki można osiągnąć przez zwiększenie liczebności próby, ale często zamiast zwiększania liczebności losowań, wystarczający efekt można uzyskać korzystając z metod redukcji wariancji .
W klasycznej pracy wskazano na kilka metod zwiększenia efektywności klasycznej metody MC poprzez zastosowanie metod: 1) metody zmiennej kontrolnej ; 2) metody średniej ważonej ; 3) metody losowania warstwowego ; 4) obniżenie krotności całki ; 5) stosowanie stochastycznych formuł kwadraturowych.
Stosowanie szybkich metod Monte Carlo do rozwiązania zadania optymalizacyjnego teorii niezawodności przy projektowania konstrukcji budowlanych. Podczas projektowania konstrukcji duże znaczenie ma zbadanie wpływu poszczególnych elementów i ich grup na niezawodność całego systemu konstrukcyjnego, co pozwala ujawnić słabe miejsca konstrukcji i doprowadzić do wymaganej niezawodności systemu poprzez probwidłowe zaprojektowanie szczególnie tych miejsc.
Przyjmijmy, bez utraty ogólności, że system jest złożony z n grup jednakowych elementów, a czas bezawaryjnej pracy elementów i-tej grupy (1≤i≤n) ma wykładniczy rozkład prawdopodobieństwa ze średnią τi . Bez konkretyzowania pozostałych parametrów rozkładu i w szczególności zbiór stanów dopuszczalnych konstrukcji , oznaczmy przez Pf (τ1,…,τn) prawdopodobieństwo zniszczenia systemu w okresie użytkowania T, czyli w okresie czasu [0,T] przy znanych τi (1≤i≤n). Stopień wpływu niezawodności poszczególnych grup elementów na niezawodność całego systemu (wrażliwość systemu) wyraża gradient:
$$\begin{equation} \nabla P_f=\left [ \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_1} , …, \cfrac{ \partial P_f(\tau_1 ,…, \tau_n) }{\partial \tau_n} \right ]\label {85} \end{equation} $$
Zdefiniowana wrażliwość niezawodności charakteryzuje prędkość zmian niezawodności systemu przy zmianie niezawodności poszczególnych grup elementów. W praktyce projektowej nie można przestawić jawnych formuł na funkcje niezawodności Pf (τ1,…,τn) i wobec tego do poszukiwanie gradientu tej funkcji ∇ należy zastosować szybkie metody symulacji i oraz teoretycznych metod oceny dokładności rozwiązań, podanych na przykład w pracy . Przedstawione metody pozwalają oszacować gradient stochastyczny, to jest wektor $\left [ \varphi_1 \tau_1 ,…, \tau_n), …, \varphi_n \tau_1 ,…, \tau_n \right ]$, taki, że :
$$\begin{equation} E \gamma_i (\tau_1,…, \tau_n)=\cfrac{\partial P_f(\tau_1,…, \tau_n)} {\partial \tau_i}, 1\le i \le n]\label {86} \end{equation} $$
Ważną cechą metod szybkich symulacji jest to, że dla każdej realizacji i każdego elementu można ocenić jakość zbioru elementów, więc w trakcie prowadzenia symulacji można poprobwiać proces i skupić się na elementach słabych, statystycznie istotnych cechach oraz kryteriach jakości. Można również ocenić „wkład” każdego elementu w niezawodność systemu.
Metoda funkcji ważności (importance sampling)
Najważniejszą metodą redukcji wariancji MCC jest metoda funkcji ważności (ang importance sampling). która jest stosowana w wielu odmianach w zależności of konkretnego problemu . Metoda ta jest w istocie klasyczną metodą zmiennej kontrolnej w ujęciu ilorazu, a nie różnicy funkcji gęstości oryginalnej f(x) i tzw losującej g(x). Można pokazać, że odpowiedni wybór gęstości losującej decyduje o efektywności metody. Jeśli g będzie proporcjonalna do f w obszarze całkowania (awarii) , to wariancja redukuje się do zera i wystarczyłoby jedno losowanie, by uzyskać wynik dokładny. Nie jest to jednak proste i ściśle możliwe w praktycznych sytuacjach.
Liczne doświadczenia w stosowaniu metody funkcji ważności w odmianie ach uproszczonych pozwalają stwierdzić, że zwykle zadowalającą estymację można otrzymać już po wygenerowaniu od kilkuset do kilku tysięcy realizacji zmiennych. Jest to o wiele rzędów wielkości mniej niż w przypadku klasycznego Monte Carlo. Wystarczy jako gęstość losującą wybrać rozkład normalny. Wówczas oszacowanie wartości prawdopodobieństwa awarii nie jest bardzo wrażliwe na kształt obszaru awarii,a prawdopodobieństwo, że realizacja zmiennej losowej wygenerowanej zgodnie z gęstością losującą znajdzie się w obszarze awarii wynosi około 50%. Kontrastuje to z klasyczną metodą Monte Carlo gdzie prawdopodobieństwo “trafienia” realizacji w obszar awarii było mniej więcej równe obliczanemu prawdopodobieństwu awarii .
Metody adaptacyjne
Ponieważ stosowanie standardowej metody funkcji ważności w szeregu przypadkach może być zawodne, bo:
* w konkretnym zagadnieniu gęstość losująca może być źle dobrana,
* powierzchnia graniczna może posiadać wiele punktów projektowych (minimów lokalnych), na przykład w przypadku rozważania kilku funkcji granicznych (mechanizmów zniszczenia)
* powierzchnie graniczne mogą mieć znaczne ujemne krzywizny,
więc stosuje się metodę adaptacyjną doboru gęstości losującej. Dobór funkcji gęstości losującej rozpoczyna się od założenia prostej funkcji gęstości, najczęściej gaussowskiej, z wartościami oczekiwanymi i wariancjami określonymi na podstawie próby o niewielkiej liczebności. Poprzez generowanie kolejnych realizacji zmiennych losowych funkcja losująca jest ciągle udoskonalana, gdyż parametry rozkładu estymuje się na podstawie coraz liczniejszej próbki. Przyjmuje się, że gęstość losująca o tak uaktualnianym położeniu oraz kształcie zbiega ostatecznie do gęstości idealnej.
Niestety, zbieżności tej nie można zagwarantować, szczególnie w przypadku złego początkowego wyboru gęstości losującej. Dlatego często stosowane są modyfikacje tej metody, polegające na tym, że funkcja gęstości losującej jest składana ze kilku funkcji gęstości z zadanymi wagami. podlegającym odrębnym optymalizacjom (adaptacjom) lub aproksymacja oryginalnej powierzchni odpowiedzi przez powierzchnie prostsze dla których można zastosować efektywne, numeryczne algorytmy optymalizacji. W większości zagadnień praktycznych efektywne będą metody mieszane (hybrydowe), polegające na tym, że w trakcie symulacji losowych są jednocześnie: a) przybliżane położenie punktu projektowego, b) uaktualniana funkcja gęstości losującej obszarze skoncentrowanym nad punktem projektowym, c) uaktualniana aproksymacja powierzchni granicznej. W procesie adaptacyjnym należy dążyć do tego by można było zastosować optymalizacyjne metody gradientowe, znajdujące zastosowanie w przypadku różniczkowalnego wycinka powierzchni granicznej, to znaczy należy jak najszybciej ominąć punkty osobliwe powierzchni granicznej. Punkty osobliwe często występują w konstrukcjach wrażliwych na utratę stateczności i nie wytrąconych z położenia bifurkacyjnego. Dla takich konstrukcji należy stosować specjalne metody adaptacyjne.
Metody łacińskich hiperkostek
Metoda łacińskich hiperkostek (ang . Latin Hypercube Sampling (LHS)) jest statystyczną metodą wytwarzania próbki prawdopodobnych zbiorów wartości parametrów wielowymiarowym rozkładzie prawdopodobieństwa. Metoda pobierania próbek metodą LHS, jest stosowana od roku 1980 po opublikowaniu pracy i oprobcowaniu kodów komputerowych w latach kolejnych.
Podczas pobierania próbek funkcję
zmiennych, zakres każdej zmiennej jest podzielona na
równie prawdopodobnych odstępach czasu.
przykładowe punkty są następnie umieszczane w celu zaspokojenia wymagań łacińskich Hypercube; zauważyć, że powoduje to szereg podziałów
, być taki sam dla każdej zmiennej. Należy również pamiętać, że program ten nie wymaga pobierania próbek kolejne próbki do większej liczby wymiarów (zmiennych); Niezależność ta jest jedną z głównych zalet tego systemu pobierania próbek. Kolejną zaletą jest to, że losowe próbki mogą być podjęte po jednym na raz, pamiętając, których pobrano próbki do tej pory.
Metoda LHS tym różni się od standardowych losowań, że uwzględnia wcześniej wygenerowane próbki, a ponadto należy z góry założyć ile punków próbkowania jest potrzebne. W standardowej metodzie MC próbki są generowane bez uwzględnienia wcześniej wylosowanych i nie jest znana liczba próbkowań. W metodzie LHS zapamiętywane są miejsca pobrania próbek w zapisie macierzowym (wiersz i kolumna). Optymalna hiperkostka jest generowana w metodzie ortogonalnej , w której przestrzeń probbilistyczna jest dzielona na jednakowo prawdopodobne podprzestrzenie. Wszystkie punkty próbkowania ortogonalnego są wybierane jednocześnie każda podprzestrzeń jest próbkowana z tej samej gęstości. W ten sposób próbkowanie ortogonalne zapewnia, że zespół liczb losowych jest bardzo dobrym reprezentantem rzeczywistej zmienności losowej próby, podczas gdy tradycyjne (zwane ekstensywnym) jest po prostu zespołem liczb losowych bez żadnych gwarancji reprezentatywności.
Maksymalna liczba kombinacji dla łacińskiej hiperkostki złożonej z
podziałów przy
zmiennych (czyli wymiarów) można obliczyć ze wzoru:
$$ \begin{equation} \left (\prod \limits_{n=0}^{M-1} (M-N) \right) = (M )^{N-1} \label {87} \end{equation} $$
gdzie: M – liczba podziałów N-liczba zmiennych (N=2 – płaszczyzna, N=3 – przestrzeń). Przykładowo dla M=4, N=2 mamy 24 możliwych kombinacji; dla M=4, N=3 mamy 676 możliwych kombinacji(losowań)
Zwykle ten drugi sposób wystarcza do uzyskania wystarczającej ze względów praktycznych dokładności dla praktycznie częstych zagadnień, jeśli tylko spełnimy założenia generacji optymalnej hiperkostki. Dla uzyskania takiej samej dokładności w klasycznej metodzie MC zwykle potrzeba byłoby kilkaset razy więcej losowań.
Algorytmy genetyczne
Algorytmy genetyczne są stosowane w połączeniu z metodą łacińskich hiperkostek w istocie do generowania kolejnych hiperkostek w algorytmie znanym z sieci neuronowych, tzn pozwala przewidywać następną populację na podstawie analizy łącznych zmian generowanych przez kilkadziesiąt wcześniejszych populacji Ze względu na nieocenioną przydatność, algorytmy genetyczne w metodzie MC są przedmiotem wielu probc, np. .
Zastosowanie szeregu Neumanna
Do aproksymacji powierzchni granicznej stosuje się najczęściej rozwinięcie w szereg potęgowy Taylora. Wiele probc, np.: , , pokazuje, że przy optymalnym doborze parametru konwergencji i zastosowaniu algorytmu MCC , efektywny jest rozkład w szereg Neumanna. Takie obserwacje są również renesansem pierwotnych idei opisanych na wstępie tego artykułu.
Zastosowanie twierdzenia Bayesa
Podejście Bayesa różni się fundamentalnie od istoty metody Monte Carlo, czyli podejścia częstotliwościowego do wyznaczania prawdopodobieństwa zdarzenia z definicji i zastosowania centralnego twierdzenia granicznego. Tymczasem przypadkowość i nieprzewidywalność zjawisk w dużej mierze związana jest z brakiem wiedzy o naturze modelu przetwarzającego zmienne wejściowe , a nie od rozrzutu tych zmiennych. Symulacja realizacji zmiennych wejściowych nie dotyka istoty rzeczy, a zwiększanie liczby symulacji nie musi prowadzić do przybliżania prawdopodobieństwa zdarzenia. Twierdzenia Bayesa (o prawdopodobieństwie warunkowym) opiera się na znacznie szerszej definicji prawdopodobieństwa od definicji częstotliwościowej. Podejście Bayesa do wyznaczania prawdopodobieństwa zdarzenia przeżywa gwałtowny wzrost zainteresowania w niemal każdej dziedzinie .
Metody hybrydowe
Najbardziej efektywne jest stosowanie metod hybrydowych poprzez połączenie wymienionych wyżej metod w sposób dostosowany do konkretnego zagadnienia.
Część IIb
Model binarny konstrukcji
Podstawowe struktury niezawodnościowe
Z probilistycznego punktu widzenia można przyjąć, że element „i” ma jedną określoną postać niespełnienia niezawodności. Natomiast ustrój, czyli zbiór elementów może mieć więcej niż jedną postać, ale też może także składać się z dwóch lub więcej elementów, charakteryzujących się jedną postacią niespełnienia.
Omówione niżej systemy szeregowe (łańcuchy) są modelem konstrukcji statycznie wyznaczalnych. Systemy równoległe (wiązki) są modelem konstrukcji statycznie niewyznaczalnych.
Na rys. 7 pokazano schematy blokowe podstawowych struktur niezawodnościowych: szeregowych i równoległych. Przykładem struktury szeregowej jest statycznie wyznaczalna konstrukcja (kratownica, rama, płyta , itd) . Przykładem struktury równoległej jest konstrukcja statycznie niewyznaczalna. Zarówna system szeregowy jak i równoległy (lub systemy mieszane szeregowo-równoległe) są modelami tradycyjnych systemów konstrukcyjnych, z elementami wbudowanymi na stałe (obciążonymi).
Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych.

Rys.7 Podstawowe modele niezawodnościowe: a) szeregowy, b) równoległy czyli rezerwy obciążonej , c) rezerwy nieobciążonej
Analizujemy systemy, w których uszkodzenia elementów $\overline \Omega_i$ są zdarzeniami wzajemnie niezależnymi. Niezależnymi są więc również zdarzenia dopełniające $\Omega_i$.
Szeregowa struktura niezawodnościowa. Statystyczny efekt skali (osłabienia)
W systemie (strukturze, układzie, modelu, schemacie ) szeregowym cały system pracuje, jeśli wszystkie elementy probcują, to znaczy system szeregowy ulega awarii, jeśli choć jeden z elementów ulegnie awarii.
Przykładem konstrukcji z rezerwą nieobciążoną jest konstrukcja z elementami rezerwowymi włączanymi w system w przypadku awarii jakiegokolwiek innego elementu. Takie konstrukcje wymagają stałej obsługi, lecz w dobie automatycznego monitoringu i informatyzacji staną się ważną klasą systemów konstrukcyjnych.
W tym przypadku przy liczbie elementów $n$:
$$ \begin{equation} p_s = Pr \,\{ \Omega_1 \bigcap \Omega_2 \ldots \bigcap\Omega_n \}\label{88} \end{equation} $$
i w ślad za przyjętym założeniem o niezależności uszkodzeń elementów
$$ \begin{equation} p_s=Pr \, \{ \Omega_1 \} \cdot Pr \, \{ \Omega_2 \} \cdot … \cdot Pr \, \{ \Omega_n \}\label{89} \end{equation} $$
czyli
$$ \begin{equation} p_s= \prod \limits_{i=1}^n p_{s_i}\label{90} \end{equation} $$
Formuła ($\ref{90}$) jest zasadą mnożenia niezawodności (prawdopodobieństw bezawaryjnej pracy) elementów systemu szeregowego. Wyraża ona również tak zwany
Statystyczny efekt skali: „im więcej elementów zawiera system szeregowy, tym mniejsza jest jego niezawodność”.
W celu doświadczalnego potwierdzenia zasady ($\ref{89}$) można przeprowadzić doświadczenie z nitką. W celu urwania nitki rozwijamy ją ze szpuli i łatwo zrywamy, ale jeśli nie można jej rozwinąć i nitka jest krótka, to trudno ją zerwać i trzeba użyć nożyczek do przecięcia nitki.
Z zależności ($\ref{90}$) wynika, że nigdy niezawodność systemu szeregowego nie jest większa od niezawodności najsłabszego elementu (ogniwa). W takim razie dla systemu szeregowego mamy:
$$ \begin{equation}p_s \le \min \limits_i p_{s_i} \label{91} \end{equation} $$
Jeśli oznaczymy przez $p_{f_i}$ prawdopodobieństwo zniszczenia i-tego elementu, to ($\ref{90}$) możemy zapisać w postaci:
$$ \begin{equation} p_s= \prod \limits_{i=1} \limits^n (1-p_{f_i})\label{92} \end{equation} $$
Rozkładając wielomian, będący wynikiem iloczynu ($\ref{92}$) w szereg Newtona i odrzucając wyrazy rzędu wyższego niż liniowy (które są istotnie mniejsze o członów liniowych, bowiem bardzo małe są prawdopodobieństwa zniszczenia poszczególnych elementów budowlanych), otrzymamy oszacowanie
$$ \begin{equation} p_s \cong 1- \sum \limits_{i=1} \limits^n p_{f_i} \label{93} \end{equation} $$
Na rys. 8 pokazano zależność niezawodności systemu szeregowego $p_s$ od liczby n elementów o takiej samej niezawodności elementów $p_{si}=0,95 ; 0,98$ lub $0,99$.
Spadek niezawodności systemu wraz ze zwiększaniem się liczby elementów jest bardzo szybki, a zwiększanie niezawodności pojedynczych elementów wpływa stosunkowo mniej na zwiększenie niezawodności systemu.

Rys.8 Niezawodność systemu szeregowego $p_s$ w funkcji liczby elementów $n$
Statystyczny efekt skali obserwowany jest zarówno w prętach, jak i w ustrojach powierzchniowych (powłoki, płyty, ściany), a także w ustrojach trójwymiarowych (bryłach). Systematycznie obserwuje się, że konstrukcja o większych rozmiarach (większej liczbie elementów skończonych) jest słabsza od konstrukcji z mniejszą liczba elementów.
Zwiększenie niezawodności systemu szeregowego najlepiej przeprowadzić, realizując strategię:
- wyszukać najsłabszy element w systemie i zwiększyć jego nośność, więc również niezawodność
- sprowdzić nośność systemu i w przypadku niezadawalającego wyniku, przeprowadzić pkt 1 dla kolejnego elementu
- po każdym kroku starać się zmniejszyć liczbę elementów połączonych szeregowo.
W opisanej strategii uwzględniono dwa ważne wnioski z przeprowadzonych analiz:
1) o nośności i niezawodności systemu szeregowego decyduje najsłabszy element (najsłabsze ogniowo),
2) niezawodność systemu szeregowego gwałtownie spada wraz z e zwiększającą się liczbą elementów połączonych szeregowo.
3) niezawodność systemu szeregowego zależy nie tylko od liczby elementów (ogniw) składowych, ale także od poziomu ich niezawodności.
Równoległa struktura niezawodnościowa. Statystyczny efekt wzmocnienia
System z elementami połączonymi równolegle (rys.7b) nie ulegnie zniszczeniu, dopóki nie zniszczą się wszystkie elementy systemu o liczebności $m$. Niezawodność $p_s$ systemu równoległego wyznaczymy z zależności:
$$ \begin{equation} p_s = Pr \, \{ \bar \Omega_1 \bigcap \bar \Omega_2 \ldots \bigcap \bar \Omega_m \} = Pr \, \{ \Omega_1 \bigcup \Omega_2 \ldots \bigcup \Omega_m \} \label{94} \end{equation} $$
gdzie $\Omega_i$ oraz $\overline \Omega_i$ – są wzajemnie dopełniającymi zdarzeniami – zdarzenie oznaczone nadkreśleniem oznacza zdarzenie przeciwne i w tym przypadku zniszczenie elementu.
Jeśli zdarzenia $\Omega_i$ są wzajemnie niezależne, to również $ \overline \Omega_i $ są wzajemnie niezależne, a jeśli tak, to zachodzi:
$$ \begin{equation} p_s = 1-p_f=1-\prod \limits_{i=1} \limits ^m (1-p_{si}) \label{95} \end{equation} $$
Takie połączenie równoległe (elementów obciążonych – wbudowanych na stałe) jest typowe dla tradycyjnych konstrukcji budowlanych.
Na rys.9 pokazano zależność niezawodności $p_s$ systemu równoległego od liczby $m$ elementów w wiązce o takiej samej niezawodności każdego elementu $p_{si}$. Obserwujemy zwiększanie się niezawodności systemu równoległego wraz ze zwiększaniem się liczby elementów w wiązce.
Przy dużych niezawodnościach elementów ( z takimi mamy do czynienia w budownictwie) przyrost niezawodności systemu równoległego jest wolny dla liczby elementów większych od 3-ch., a przy podłączeniu czwartego elementu praktycznie nie obserwujemy zwiększenia niezawodności systemu .

Rys.9. Niezawodność systemu równoległego $p_s$w funkcji niezawodności elementów $p_{si}$. Krzywe dla różnej liczby elementów $m$
Własności systemu równoległego powodują, że zwykle rozumie się go jako sposób zwiększenia niezawodności systemu poprzez zwiększenie liczby elementów połączonych równolegle. Jednakże taka cecha struktury nie zawsze skutecznie prowadzi do celu. Zwiększanie liczby elementów równoległych powyżej czterech okazuje się narzędziem mniej skutecznym i w istocie niezbyt wygodnym w stosunku do prostej wymiany jednego elementu na element o większej niezawodności.
Tym niemniej należy zauważyć, że w systemie równoległym następuje statystyczny efekt zwiększenia niezawodności systemu wraz ze zwiększającą się liczbą elementów składowych. Obserwujemy więc zjawisko przeciwne niż w systemach szeregowych.
Wynika stąd ważny wniosek dla Konstruktora konstrukcji budowlanych:
Połączenia szeregowe elementów konstrukcji (statycznie wyznaczalnych) prowadzą do istotnego zmniejszania niezawodności, natomiast połączenia równoległe elementów konstrukcji (statycznie niewyznaczalnych) prowadzą do niewielkiego zwiększenia niezawodności systemu, wraz ze zwiększaniem się liczby elementów.
Złożone modele
W budowlanej praktyce inżynierskiej mamy najczęściej do czynienia ze złożonymi strukturami niezawodnościowymi, polegającymi na połączeniu w szereg struktur równoległych lub równoległym połączeniu łańcuchów lub też innych struktur i na dodatek z elementami wspólnymi w różnych strukturach.
Na rys. 10 pokazano model struktury z podzielonym rezerwowaniem, czyli strukturę w której systemy równoległe połączono w szereg.

Rys. 10 Struktura z podzielonym rezerwowaniem (równoległe w szeregu)
Przykładem takiej struktury jest konstrukcja z powielonymi układami statycznie niewyznaczalnymi. W tym przypadku prawdopodobieństwo bezawaryjnej pracy mxn elementów, każdy o niezawodności $p_{si}$ można obliczyć z zależności
$$ \begin{equation} p_{s, podzielone} = [1-(1-p_{si})^m]^n \label{96} \end{equation} $$
gdzie m jest liczbą elementów w każdej strukturze równoległej, a n liczbą ogniw w łańcuchu.
Na rys. 11 przedstawiono wykresy uzyskane z zależności ($\ref{96}$).

Rys.11. Podzielone rezerwowanie : $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$, linie ciągłe dla $p_{si}=0,7$
Na rys. 12 pokazano model struktury z ogólnym rezerwowaniem, czyli ze strukturami szeregowymi, połączonymi równolegle.

Rys. 12 Struktura z ogólnym rezerwowaniem (równoległe w szeregu)
W tym, przypadku niezawodność struktury można obliczyć z zależności
$$ \begin{equation} p_{s, ogolne} =1-(1-p_{si}^n)^m \label{97} \end{equation} $$
Na rys.13 przedstawiono zależności uzyskane z formuły ($\ref{97}$).

Rys.13. Ogólne rezerwowanie : $n$ – liczba elementów połączonych szeregowo; $m$ – liczba równoległych połączeń ; linie przerywane dla $p_{si}=0,9$, linie ciągłe dla $p_{si}=0,7$
Zależności ($\ref{96}$), ($\ref{97}$) można uogólnić na przypadek, gdy struktury mają inną liczbę elementów $m$ i $n$ w sposób pokazany w pracy .
Dla przypadków bardziej ogólnych połączeń zaleca się rozpatrywać iteracyjnie, analizując możliwe kombinacje połączeń.
Wykresy rys. 6 i 8 pokazują , że na niezawodność systemu najbardziej wpływa liczba elementów połączonych szeregowo. Wpływ liczby połączeń równoległych jest istotny przy niewielkiej liczbie połączeń i dla $m>4$ jest praktycznie nieistotny. Wpływ liczby elementów i połączeń zmniejsza się jeśli niezawodność poszczególnych elementów jest duża, co jest charakterystyczne dla konstrukcji budowlanych. Wprowadzenie rezerwowych elementów daje lepsze efekty od wprowadzenia rezerwowych układów.
Wynika stąd, że konieczne jest rozpatrywanie struktury w całości. Projektowanie konstrukcji element po elemencie bez analizy połączeń niezawodnościowych może prowadzić do istotnego niedowymiarowania konstrukcji i wywołania katastrofy budowlanej, czego przykłady dostarczane nam są dość często.
Niezawodność konstrukcji należy rozpatrywać we wczesnym stadium projektowania, wówczas gdy wniesienie zmian nie powoduje znacznych strat, co będzie najbardziej znaczące na etapie eksploatacji.
Korelacja konstrukcyjna
Korelacja funkcyjna jest mierzona współczynnikiem korelacji ($\ref{20}$). Konstrukcyjny współczynnik korelacji będziemy szacować analogicznie, z zależności uzyskiwanych na teoretycznym modelu konstrukcji ( zależności teorii sprężystości lub mechaniki ), albo też w wyniku nadań numerycznych na modelu MES, bądź z modelu poddanego badaniom eksperymentalnym.
Statyczna liniowość nie oznacza liniowości probabilistycznej bowiem konstrukcja zwiera wiele zmiennych losowych o różnych rozkładach i powiązanych nieliniowo. Ponadto konstrukcje rzeczywiste są obarczone szeregiem imperfekcji geometrycznych (imperfekcje systemowe, czyli odchylenia węzłów od położenia nominalnego i imperfekcje lokalne, czyli wstępne wygięcia i skręcenia nominalnie prostych elementów prętowych i płytowych lub odchylenia od powierzchni nominalnej powłok, a także inne.
Momenty statystyczne (wartości oczekiwane, odchylenia standardowe oraz kowariancje i korelacje) losowych zmiennych wyjściowych (przemieszczenia, siły przekrojowe lub mnożnik nośności) konstrukcji rzeczywistych najczęściej wyznaczane są numerycznie. Natomiast charakterystyki statystyczne i typy rozkładów zmiennych wejściowych ( materiałów, geometrIII systemu i elementów, obciążeń) uzyskuje się z pomiarów bezpośrednich.
Oszacowania niezawodności dla struktur złożonych
Ścisłe wyznaczenie niezawodności mieszanych (złożonych ) struktur z punktu widzenia niezawodności jest trudne nawet z wykorzystaniem komputera i w praktyce nie jest konieczne. Zamiast dokonywania rachunków na iloczynach splotowych dystrybuant, korzysta się z oszacowań górnego i dolnego prawdopodobieństwa zniszczenia lub niezawodności. W artykule przedstawiono klasyczne oszacowania, przydatne w obliczeniach ręcznych, oraz oszacowania dokładniejsze, możliwe w obliczeniach numerycznych, wymagające znajomości łącznego rozkładu statystycznego zniszczenia elementów systemu lub przynajmniej informacji o rozkładach brzegowych oraz o jak największej liczbie parametrów tych rozkładów i korelacji między rozkładami.
Ścieżki i cięcia (przekroje) struktury
Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne są oszacowania górne i dolne prawdopodobieństwa zniszczenia.
Mechanizm zniszczenia struktury polega na zniszczeniu tylu elementów w strukturze, by cała struktura uległa zniszczeniu. W pracy wprowadzono następujące definicje:
Ścieżka (ścieżka zdatności) systemu, jest takim podzbiorem elementów systemu, że przy zdatności wszystkich elementów należących do tego zbioru, system jest w stanie zdatności. Ścieżkę nazywamy minimalną, gdy nie zawiera żadnej innej ścieżki jako podzbioru. Ścieżkę nazywa się krytyczną ze względu na element, gdy utrata zdatności przez ten element powoduje utratę zdatności przez system. Każda minimalna ścieżka jest krytyczna ze względu na dowolny swój element.
Struktura szeregowa jest więc minimalną ścieżką, w którym zniszczenie jednego elementu prowadzi do zniszczenia układu.
Cięcie (przekrój) systemu, jest takim podzbiorem elementów systemu takim, że niezdatność wszystkich elementów należących do tego zbioru, prowadzi do niezdatności systemu. Cięcie nazywamy minimalnym, gdy nie zwiera jako podzbioru żadnego innego cięcia.
Struktura równoległa jest cięciem systemu.
Na rys. 9 zilustrowano mechanizm struktury szeregowo-równoległej. System tego typu przedstawiono na rys.14a, a jego minimalne ścieżki na rys.14b, oraz minimalne ciecia na rys 14c

Rys. 14 Minimalne cięcia b) i minimalne ścieżki c) dla systemu złożonego a) ,rys.3.17
System z rys. 11a ma następujące ścieżki i cięcia:
- ścieżki zdatności systemu
{1,2,3,4}, }{1,2,3}, {1,2,4}, {1,2}, {1,3,4}, z których dwie ostatnie (pogrubione) są ścieżkami minimalnymi, pokazanymi na rys. 9b).
- cięcia systemu
{1,2,3,4}, {1,2,3}, {1,2,4}, {2,3,4}, {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {1}, z których trzy ostatnie (pogrubione) są cięciami minimalnymi.
W ogólnym przypadku należy wyznaczyć cięcie (przekrój) struktury takie, że zniszczenie wszystkich elementów z tych zbiorów prowadzi do zniszczenia konstrukcji. Na takim k-tym cięciu może być uruchomiony mechanizm zniszczenia $M_k$. Zdarzenie polegające na uruchomienia mechanizmu $M_k \ (k=1,…,n)$ oznaczmy przez $Z_k$, a prawdopodobieństwo wystąpienia zdarzenia przez
$$ \begin{equation} { Pr \, \{Z_k\}=p_k \ , (k=1,2,..,n) }\label{98} \end{equation} $$
Zdarzenie polegające na uruchomieniu dowolnego mechanizmu i w konsekwencji zniszczenia oznaczymy przez $Z$, a prawdopodobieństwo jego wystąpienia przez
$$ \begin{equation} { Pr \, \{Z\} } =p_f \label{99} \end{equation} $$
Jeśli n mechanizmów jest możliwych, to zniszczenie struktury nastąpi, jeśli uruchomi się dowolny mechanizm, czyli:
$$\begin{equation} p_f =\Pr \left( \bigcup \limits _{k=1}^n Z_k\right) = \sum_{i} p_i – \sum_{i<j} p_{ij} +\sum_{i<j<k} p_{ijk} -\cdots\label{100} \end{equation} $$
Struktury progowe
Istnieje szereg struktur niezawodnościowych, których nie da się przedstawić za pomocą schematu blokowego, czyli nie jest strukturą szeregowo równoległą lub równoległo szeregową. Takie struktury nazywa się progowymi. Przykład struktury progowej „2 z 3” pokazano na rys. 15, Struktura progowa „2 z 3” oznacza, że system jest w stanie zdatności, gdy spośród trzech jego elementów przynajmniej dwa są w stanie zdatności .

Rys.15. Przykład struktury progowej: a) Struktura „2 z 3”, b) minimalne ścieżki, c) minimalne cięcia ,rys.3.18
W konstrukcjach budowlanych statycznie niewyznaczalnych mamy w ogólności do czynienia z systemami progowymi „k z n”, to znaczy takimi systemami, w których n-elementowy system jest zdatny, jeśli zdatnych jest k elementów, przy czym $1 \le k \le n$. Na rys.16 pokazano przykłady uogólnionych struktur progowych .

Rys.16. Struktura progowa uogólniona: a) typowa struktura rezerwy nieobciążonej, b) struktura szeregowa, c) struktura równoległa, d) struktura „k z n” (opis w tekście) ,rys.3.22
W modelu uogólnionej struktury progowej oprócz parametrów: „n” – liczba elementów struktury, „k”- liczba tych elementów systemu, które muszą być zdatne, jeśli system ma być zdatny, wprowadzamy parametr „m”- liczba elementów czynnych systemu $m \le n$. Pozostałe elementy systemu $n-m$ stanowią rezerwę nieobciążoną. Pokazane na rys. 11 struktury progowe ilustrują przypadki szczególne:$k=m=n$ – struktura szeregowa,
$k=1$, $m=n$ – struktura równoległa,
$m= n < k$ – struktura $k z n$ w węższym sensie,
$k=m=1$, $n>1$ – typowa struktura nieobciążona (rys. 16a),
$k=m ,n$ – struktura szeregowa z wędrującą rezerwą nieobciążoną (rys. 16c),
$k<m<n$ – struktura „k z n” z wędrującą rezerwą nieobciążoną (rys. 16d).
Oszacowania niezawodności konstrukcji budowlanej złożonej z elementów
Dolne i górne oszacowanie niezawodności $p_s = r$
W analizie niezawodności konstrukcji budowlanych zasadnicze znaczenie ma wyznaczenie przedziału, w którym zawiera się prawdopodobieństwo przetrwania systemu $p_s = r $, gdzie r- niezawodność systemu . Przedział ten wyznaczają dolne $p_s^-$ i górne $p_s^+$ oszacowania niezawodności, dalej jest nazywany widełkami niezawodności.
$$ \begin{equation} p_s^- \le p_s \le p_s^+ \label{101} \end{equation} $$
a w innym zapisie
$$ \begin{equation} p_s \in [\,p_s^-,\,p_s^+\,] \label{102} \end{equation} $$
gdzie:
$p_s^-$ – bezpieczne (konserwatywne) dolne oszacowanie niezawodności,
$p_s^+$ – górne oszacowanie, wykorzystywane głównie do oceny dokładności.
W inżynierii podstawowe znaczenie ma dolne oszacowanie prawdopodobieństwa przetrwania konstrukcji $,$p_s^-$, które powinno być osiągnięte przez niezawodną konstrukcję.
W dalszym zapisie operuje się wyłącznie prawdopodobieństwem przetrwania $p_s$, z pominięciem prawdopodobieństwa zniszczenia $p_f$. Przyjęcie zapisu wyłącznie w kategoriach $p_s$: eliminuje błędy znaków nierówności, porządkuje narrację, jest w pełni zgodne z praktyką inżynierską, ułatwi przejście do binarnej i dynamicznej metody niezawodności.
Proste oszacowania strukturalne (oP) – Cornell ; BP – przypadek ogólny
Dla nieskorelowanych zdarzeń $Z_i$ oraz $Z_j$ prawdopodobieństwo zniszczenia systemu $p_f$ klasycznie zapisuje się w postaci rozwinięcia sumowo-iloczynowego
$$ \begin{equation} p_f = p_1 + p_2 + \ldots + p_n – p_1 p_2 – p_1 p_3 – \ldots + p_1 p_2 p_3 – \ldots \label{103} \end{equation} $$
gdzie $p_i = \mathrm{Prob} \{Z_i \le 0\}$ – prawdopodobieństwo zniszczenia elementu „i” .
Niestety w praktyce inżynierskiej mechanizmy są rzadko nieskorelowane, więc potrzebne są oszacowania górne i dolne prawdopodobieństwa zniszczenia systemu $p_f$, z których najprostsze podał Cornell (1969) (również Augusti, Baratta (1972) i Barlow- Proschan (1974) i in):
$$ \begin{equation} p_s^- = 1 – \sum_{i=1}^{n} (1 – p_{s,i}) \le p_s \le p_s^+ = \min_{1 \le i \le n} p_{s,i} \label{104} \end{equation} $$
Zależność ($\ref{104}$) stanowi odpowiednik klasycznego oszacowania Cornella–Barlowa–Proschana, zapisanego wyłącznie w kategoriach niezawodności systemu. Dolna granica $p_s^-$ ma charakter konserwatywny i jest istotna z punktu widzenia bezpieczeństwa konstrukcji, natomiast górna granica $p_s^+$ służy jedynie do oceny szerokości widełek oszacowania.
Przypadek ogółny BP (Barlow-Proschan) dotyczy systemu z minimalnymi informacjami o stowarzyszeniu oraz cięciach i ścieżkach
Oszacowania Ditlevsena (oD)
Proste oszacowania strukturalne (Cornell, BP-A) prowadzą do bardzo szerokich widełek niezawodności. W celu ich zawężenia, przy zachowaniu bezpieczeństwa obliczeń, Ditlevsen (1979) zaproponował oszacowania wykorzystujące dodatkową informację o współwystępowaniu mechanizmów zniszczenia, tj. o prawdopodobieństwach parowych.
Granice przedziału widełek ($\ref{101}$) lub ($\ref{102}$) wyznaczają oszacowania
$$ \begin{equation} p_s^- = \max \left[p_{s,\min}, \; 1 – \sum_{i=1}^{n} (1 – p_{s,i})+ \sum_{i=2}^{n} \max_{j<i} \left(p_{s,ij} – p_{s,i} – p_{s,j} + 1 , \; 0\right)\right] \label{105} \end{equation} $$
$$ \begin{equation} p_s^+ = \min \left[\min_{1 \le i \le n} p_{s,i},\;1 – \sum_{i=1}^{n} (1 – p_{s,i})+ \sum_{i=2}^{n} \min_{j<i}\left(p_{s,ij} – p_{s,i} – p_{s,j} + 1\right)\right] \label{106} \end{equation} $$
W praktyce inżynierskiej wystarczające jest często przyjęcie
$$ \begin{equation} p_{s,ij} \approx \min(p_{s,i}, p_{s,j})\label{107} \end{equation} $$
Wyżej wprowadzono oznaczenia:
$p_{s,i} = \mathrm{Prob}\{ Z_i > 0 \}$ – niezawodność mechanizmu $i$,
$p_{s,ij} = \mathrm{Prob}\{ Z_i > 0 \,\cap\, Z_j > 0 \}$ – prawdopodobieństwo jednoczesnego przetrwania mechanizmów $i$ i $j$.
$p_{s,\min} \stackrel{\mathrm{def}}{=} \min_{1 \le i \le n} p_{s,i}$,Uwagi:
1) Oszacowania Ditlevsena nie wymagają znajomości pełnego rozkładu łącznego, a jedynie niezawodności pojedynczych mechanizmów oraz wybranych par i dają przedział zawsze węższy lub równy widełkom Cornella–BP, wykorzystując ograniczoną informację parową zamiast pełnego rozkładu wspólnego.
2) Dolne oszacowanie $p_s^-$ pozostaje bezpieczne i może być bezpośrednio stosowane w ocenie konstrukcji,
3) Metoda stanowi naturalny pomost pomiędzy: metodami FORM dla pojedynczych mechanizmów, metodami binarnymi (0/1), opisem systemowym i dynamicznym.
Oszacowania Żukowski (oŻ)
W celu wyznaczenia $p_{ij}$ należałoby znać dystrybuantę łączną dwuwymiarowego rozkładu marginesów bezpieczeństwa dla zdarzeń $Z_i$ i $Z_j$. Można też posłużyć się kolejnymi oszacowaniami podanymi przez Żukowskiego (2006) :
$$ \begin{equation} p_{ij} \ge \max \left\{ p_i \, p_{j|i},\; p_j \, p_{i|j} \right\} \quad \text{dla } \rho_{ij} > 0 \label{108} \end{equation} $$
$$ \begin{equation} p_{ij} \le \min \left\{ p_i \, p_{j|i},\; p_j \, p_{i|j} \right\} \quad \text{dla } \rho_{ij} < 0 \label{109} \end{equation} $$
gdzie
$ \rho_{ij}$ – współczynnik korelacji zmiennych $Z_i$ oraz $Z_j$- został zdefiniowany w ($\ref{20}$) dla $(X = Z_i \, ;\, Y=Z_j)$
Warunkowe prawdopodobieństwa zniszczenia można oszacować z zależności:
$$ \begin{equation} p_{i|j} = \frac{p_i – \rho_{ij} \, p_j}{\sqrt{1 – \rho_{ij}^2}} \label{110} \end{equation} $$
Zależność (108) ma charakter przybliżony i obowiązuje wyłącznie dla zmiennych normalnych w przestrzeni standaryzowanej.
W celu przejścia na oszacowania $p_s$, po zastosowaniu zależności: $p_{s,i} = 1 – p_i$ oraz $p_{s,ij} = 1 – p_i – p_j + p_{ij}$ , a po przekształceniach uzyskamy formułę
$$ \begin{equation} p_{s,ij} \ge 1 – p_i – p_j + \max \left\{ p_i \, p_{j|i},\; p_j \, p_{i|j} \right\} \quad \text{dla } \rho_{ij} > 0\label{111} \end{equation} $$
W przypadku posługiwania się wskaźnikiem niezawodności \beta, należy skorzystać z definicji ($\ref{1}$)). Po podstawianiu do zależności ($\ref{103}$) – ($\ref{109}$) i korzystając z monotonicznej własności dystrybuanty rozkładu normalnego $\Phi()$ i jej addytywności warunkowe wskaźniki niezawodności można zapisać w postaci :uzyskamy stosowne zależności dla inżynierskiej miary niezawodności- współczynnika $\beta$.
$$ \begin{equation} \beta_{i|j} = \frac{\beta_i – \rho_{ij} \, \beta_j} {\sqrt{1 – \rho_{ij}^2}} \label{112} \end{equation} $$
$$ \begin{equation} \beta_{j|i} = \frac{\beta_j – \rho_{ij} \, \beta_i}{\sqrt{1 – \rho_{ij}^2}}\label{113} \end{equation} $$
Zależności ($\ref{110}$) do ($\ref{113}$) mają charakter przybliżony i obowiązują w przypadku, gdy zdarzenia $Z_i$ oraz $Z_j$ są generowane przez funkcje graniczne o normalnych rozkładach w przestrzeni standaryzowanej, a korelacja $\rho_{ij}$ jest korelacją liniową zmiennych normalnych.
Oszacowania Żukowskiego umożliwiają przybliżone wyznaczenie prawdopodobieństw parowych bez konieczności znajomości pełnej dystrybuanty łącznej. Mają one charakter przybliżony i obowiązują w przypadku, gdy zmienne $Z_i$ oraz $Z_j$ są normalne w przestrzeni standaryzowanej, a współczynnik $\rho_{ij}$ opisuje korelację liniową. W praktyce inżynierskiej oszacowania te są wystarczające do zawężania widełek niezawodności w metodach BP–Ditlevsena oraz w binarnych modelach niezawodnościowych.
Oszacowania ($\ref{105}$) i ($\ref{106}$) stosuje się w obliczeniach numerycznych. Natomiast w obliczeniach ręcznych pozostajemy przy ($\ref{103}$) i ($\ref{104}$), które w większości przypadków praktycznych dają wystarczające przybliżenie dla wysoko niezawodnych systemów, czyli takich jakie występują w budownictwie, a zawężenie granic ($\ref{105}$) i ($\ref{106}$) stosujemy przy możliwości wiarygodnego oszacowania korelacji mechanizmów zniszczenia i warunkowych prawdopodobieństw awarii ($\ref{110}$) i ($\ref{109}$).
Elementy stowarzyszone i systemy monotoniczne
Barlow i Proschan (1974) podają kilka ważnych oszacowań dla prawdopodobieństwa zniszczenia $p_f$ systemu złożonego. Do tego celu zdefiniowali zmienne stowarzyszone, czyli takie zmienne losowe $X_1, \dots X_n$ dla których zachodzi:
$$ \begin{equation} Cov \{ \Theta(X_1,… X_n), \Psi (X_1,… X_n) \} \ge 0 \label{114} \end{equation} $$
gdzie $\Theta$ i $\Psi$ funkcje zmiennych losowych $X_1,… X_n$, stanowiących dowolne pary niemalejące ze względu na każdy z argumentów tych funkcji. Cov jest symbolem kowariancji.
z warunku ($\ref{114}$) wynika, że dwie zmienne losowe $X$ i $Y$ są stowarzyszone, jeśli są dodatnio skorelowane, to znaczy zwiększeniu wartości $X$ na ogół towarzyszy zwiększenie wartości $Y$:
$$ \begin{equation} Cov \{ X,Y\} \ \ge 0 \label{115} \end{equation} $$
Dodatnia kowariancja jest warunkiem koniecznym, ale nie wystarczającym stowarzyszenia w sensie ($\ref{114}$). Natomiast dla zmiennych binarnych dodatnia kowariancja jest równoważna stowarzyszeniu w sensie Barlowa–Proschana,a dalej rozpatrujemy sytuacje, w których każda ze zmiennych $X_1,… X_n$ jest binarna, tzn przyjmuje wartość [1 = element struktury jest sprawny ; 0=element uszkodzony].
Wówczas do spełnienia warunku ($\ref{115}$) wystarcza, by funkcje $\Theta$ i $\Psi$ były binarne. W przypadku dwóch zmiennych binarnych to kryterium ($\ref{115}$) redukuje się do prostego warunku:
$$ \begin{equation}Pr ( X=1\, , \, Y=1) \ge Pr (X=1) \cdot Pr (Y=1) \label{116} \end{equation} $$
Innymi słowy — zdarzenia „X=1” i „Y=1” występują razem częściej niż gdyby zmienne były niezależne”
Systemy spełniające warunek ($\ref{115}$) dla awarii dowolnych dwóch elementów lub ich zbioru (mechanizmu zniszczenia) nazywa się systemami monotonicznymi, to znaczy takimi, w których zwiększenie niezawodności jednego elementu powoduje zwiększenie niezawodności mechanizmu, w którym on uczestniczy, a w wyniku zwiększenie niezawodności całego systemu. To samo dotyczy zmniejszenia niezawodności. Z oszacowań podanych w rozdziale, wynika, że również zwiększanie korelacji pomiędzy elementami zwiększa niezawodność mechanizmu i całego systemu w klasie systemów monotonicznych o elementach stowarzyszonych (ale nie jest to bezwzględnie konieczne).
Dość oczywiste jest, że w konstrukcjach budowlanych elementy krytyczne (przekroje bądź elementy konstrukcyjne) są stowarzyszone, choć niekoniecznie muszą być losowo niezależne. Przykładem może być rama sprężysto-plastyczna, w której mogą być uruchomione mechanizmy plastyczne na skutek utworzenia się wymaganej liczby przegubów plastycznych, albo sprzężone systemy przekryć obiektów wskutek połączenia stężeniami konstrukcyjnymi.
Rozpatrujemy takie systemy, w których monotoniczne jest bezpieczeństwo i niezawodność.
Oszacowania niezawodności Barlow-Proschan (oBP)
Oszacowania niezawodności systemu podane przez Barlow i Proschan (1974) są oszacowaniami zależnymi od ilości posiadanych informacji. Ulepszanie oszacowań niezawodności systemu następuje wraz ze zwiększaniem się informacji o zachowaniu poszczególnych elementów systemu i o powiązaniach między elementami.
Pełną informację zawiera łączna funkcja gęstości rozkładu prawdopodobieństwa zmiennych podstawowych systemu. Takiej informacji na próżno oczekiwać. Najczęściej nie mamy wystarczających informacji statystycznych, by estymować (szacować) parametry rozkładów nawet na bardzo niewielkim poziomie wiarygodności. Posiadane, wiarygodne informacje pozwalają oszacować zwykle tylko kilka parametrów i to niektórych tylko rozkładów brzegowych. O niektóre parametrach wnioskujemy z natury zagadnienia, na przykład z centralnego twierdzenia granicznego oraz natury cech (np. nieujemności fizycznych wielkości sprawczych, wartości ekstremalnych , itd.).
Istnieją trzy typy oszacowań niezawodności zależne od posiadanych informacji o: 1) ścieżkach i cięciach systemu, 2) stowarzyszeniu , niezależności lub dowolnej korelacji elementów. dla poszczególnych sytuacji mamy oszacowania prawdopodobieństwa niezawodności $r$:
W tym rozdziale stosuje się oznaczenia:
$ r= p_s= 1-p_f$,
$r_i = Pr (Z_i > 0)$ – niezawodność elementu
$r_s$ – niezawodność systemu
$S_j$ – j-ta ścieżka minimalna
$C_j$ – j-te cięcie minimalne
Oszacowania Barlow-Proschan (oBP) można zapisać jedną formułą
$$ \begin{equation} oBP \text{-} L^- \le r_s \le oBP\text{-}L^+ \label {117} \end{equation} $$
gdzie: L jest poziomem posiadanych informacji:
A – nie są znane ścieżki minimalne i cięcia minimalne, elementy stowarzyszone,
B– znane są ścieżki minimalne i cięcia minimalne, elementy dowolnie zależne,
C– znane są ścieżki minimalne i cięcia minimalne, elementy stowarzyszone
Wraz ze zwiększającą się ilością informacji oszacowania dolne $oBP^-$ oraz górne $oBP^+$ zbliżąją się do siebie, zawężając tolerancję i polepszając oszacowanie niezawodności.
$$ \begin{equation} BP\text{-}A^- \le BP\text{-}B^- \le BP\text{-}C^- \le r_s \le BP\text{-}C^+ \le BP\text{-}B^+ \le BP\text{-}A^+ \label {118} \end{equation} $$
gdzie granice przedziałów $BP^{sign} \quad sign = {−,+} $ można oszacować z zależności:
$$ \begin{equation} BP^{sign}= \begin{cases}
oBP\text{-}A^- = & \prod \limits_{i=1}^{n} r_i \\
oBP\text{-}A^+ = & \min \limits_{1 \le i \le n} r_i \\
oBP\text{-}B^- = &\max \limits_{1 \le j \le s} \Pr \left(\bigcap_\limits {i \in S_j} \{ Z_i > 0 \}\right)\\
oBP\text{-}B^+ = & \min \limits_{1 \le j \le c} \Pr \left( \bigcap \limits_{i \in C_j} \{ Z_i > 0 \}\right)\\
oBP\text{-}C^- =& \max \limits_{1 \le j \le s} \quad \prod_ \limits{i \in S_j} r_i\\
oBP\text{-}C^+ =& \min\limits _{1 \le j \le c} \quad \prod_ \limits{i \in C_j} r_i
\end{cases} \label{119}\end{equation}$$
W ujęciu Barlow–Proschan stowarzyszenie elementarnych zdarzeń daje największy zysk informacyjny bez wymagania pełnej gęstości.
W niniejszej pracy elementarnym zdarzeniom nadaje się sens fizyczny mechanizmów zniszczenia konstrukcji budowlanych.
Oszacowania Ditlevsen–Madsen (DMo)
Ditlevsen i Madsen (1996) zaproponowali ostrzejsze oszacowania niezawodności systemu od oszacowań BP , wykorzystujące: znajomość minimalnych ścieżek lub cięć; prawdopodobieństwa zniszczenia poszczególnych mechanizmów oraz pary zdarzeń zniszczenia (korelacje na poziomie mechanizmów).
Niech zdarzenie $F_j = {\text{zniszczenie minimalnej ścieżki } S_j}$ zajdzie z prawdopodobieństwem $p_j = \Pr(F_j) = 1 – r_{S_j}$.
Wówczas dolne i górne oszacowanie Ditlevsen–Madsen (DM-F) (na poziomie ścieżek) dla systemu równoległego zdarzeń $F_j$ można zapisać następująco:
$$ \begin{equation} oDM^{sign} \begin{cases}
oDM\text{-} F^- \to & r_s \ge 1 – \sum_{j=1}^s p_j \\
oDM\text {-} F+ \to & r_s \le 1 – \max_{1 \le j \le s} p_j \\
oDM\text{-} 2F^- \to & r_s \ge 1 – \sum_{j=1}^s p_j + \sum_{j<k} \Pr(F_j \cap F_k) \\
\end{cases} \label{120}\end{equation}$$
Oszacowanie oDM-F jest ostrzejsze od oBP-A, ale nie zawsze ostrzejsze od oBP-C, ponieważ wykorzystuje tylko informację o ścieżkach, bez jawnego uwzględnienia cięć jednoelementowych
Ditlevsen–Madsen zaproponowali ulepszenie dolnego oszacowanie typu Bonferroniego drugiego rzędu w postaci oDM-2F– . To ulepszone oszacowanie jest istotnie ostrzejsze od BP i w praktyce często zbliża się do rzeczywistej niezawodności systemu.
Porównanie oszacowań oBP i oDM
Metoda oBP wykorzystuje wyłącznie: informację strukturalną o systemie (minimalne ścieżki $S_j$, minimalne cięcia $C_j$); ewentualne założenie stowarzyszenia elementów; niezawodności elementów $r_i$. Nie wymaga: znajomości wspólnego rozkładu zmiennych losowych; znajomości korelacji liczbowych; analizy interakcji pomiędzy zdarzeniami zniszczenia.
Metoda oDM wykorzystuje: minimalne ścieżki lub cięcia; prawdopodobieństwa zniszczenia mechanizmów $p_j$; informacje o wspólnych realizacjach zdarzeń $F_i \cap F_j$; (opcjonalnie) korelacje pomiędzy mechanizmami. Jest to metoda pośrednia pomiędzy oBP a pełnymi metodami probabilistycznymi (FORM/SORM).
W porównaniu z oszacowaniami Ditlevsena ($\ref{105}$) – ($\ref{106}$) opartymi na informacjach parowych i innymi podobnymi , które wymagają wyższych momentów funkcji granicznych, oszacowania BP-C oferują mniej restrykcyjne, logicznie uzasadnione granice niezawodności systemu bez silnych założeń rozkładowych. W przypadkach mechanizmów zniszczenia o wspólnych, monotonicznych zależnościach Oszacowanie oBP-C dostarcza bardziej informacyjnych, lecz nadal spójnych z fizyczną i inżynierską interpretacją ograniczeń niezawodności.
Modele binarne zależne – rozwinięcie Bahadura (oBH)
W rozwinięciu Bahadura (Bahadur, 1961) rozkład łączny zmiennych binarnych wyraża się jako iloczyn rozkładów brzegowych skorygowany o składniki opisujące zależności między zmiennymi. W najprostszym i najczęściej stosowanym przybliżeniu drugiego rzędu uwzględnia się jedynie korelacje par zmiennych.
Dla dwóch zmiennych binarnych $I_i$ i $I_j$ wspólne prawdopodobieństwo ich wystąpienia można zapisać w postaci przybliżonej:
$$ \begin{equation}\Pr(I_i=1, I_j=1) \approx p_i \cdot p_j + \rho_{ij} \cdot \sqrt{p_i\cdot ( 1 – p_i ) \cdot p_j\cdot ( 1- p_j)} \label{121} \end{equation} $$
gdzie $\rho_{ij} = \mathrm{Corr}(I_i,I_j)$ jest współczynnikiem korelacji zmiennych binarnych.
Zależność ta pokazuje, że wspólne prawdopodobieństwo dwóch mechanizmów składa się z części odpowiadającej niezależności oraz poprawka wynikającej z ich statystycznej zależności. Dla $\rho_{ij}=0$ otrzymujemy przypadek zmiennych niezależnych, natomiast dla $\rho_{ij}>0$ prawdopodobieństwo wspólne jest większe niż iloczyn prawdopodobieństw brzegowych.
Korelacja $\rho_{ij}$ w rozwinięciu Bahadura nie jest korelacją zmiennych podstawowych (obciążeń, nośności), lecz korelacją zdarzeń uruchomienia mechanizmów. Oznacza to, że mierzy ona skłonność do wspólnego występowania mechanizmów zniszczenia, niezależnie od ich fizycznych przyczyn. Takie ujęcie jest szczególnie przydatne w analizie systemów konstrukcyjnych.
Rozwinięcie Bahadura stanowi formalne uzasadnienie wielu inżynierskich oszacowań stosowanych w analizie niezawodności systemów złożonych, w szczególności oszacowań typu Cornell–Ditlevsen oraz relacji wykorzystujących prawdopodobieństwa warunkowe. Przybliżone wyrażenia na $p_{ij}$ stosowane w tych metodach można interpretować jako uproszczone postacie rozwinięcia Bahadura ograniczonego do składników drugiego rzędu.
W praktyce inżynierskiej uwzględnianie składników wyższych rzędów (trójek, czwórek zdarzeń) nie jest możliwe ze względu na brak danych i prowadziłoby do niestabilnych estymacji. Dlatego rozwinięcie Bahadura ogranicza się zazwyczaj do korelacji par mechanizmów.
W analizie niezawodności konstrukcji mechanizmy zniszczenia $Z_k$ są zdarzeniami systemowymi wynikającymi z przekroczenia odpowiednich funkcji granicznych. Zastosowanie rozwinięcia Bahadura umożliwia spójne przejście od opisu ciągłego (funkcje graniczne w przestrzeni losowej) do opisu binarnego (system niezawodnościowy).
W tym ujęciu:
- prawdopodobieństwa $p_k$ opisują częstość uruchomienia poszczególnych mechanizmów,
- korelacje $\rho_{ij}$ opisują zależności pomiędzy mechanizmami,
- oszacowania niezawodności systemu mogą być prowadzone bez znajomości pełnego rozkładu łącznego.
Rozwinięcie Bahadura ma charakter przybliżony i nie gwarantuje, że otrzymany rozkład łączny będzie dodatnio określony dla dowolnych wartości $p_i$ i $\rho_{ij}$. Z tego względu metoda ta powinna być traktowana jako narzędzie inżynierskie służące do oszacowań niezawodności, a nie jako ścisły model probbilistyczny.
Ograniczenie to nie stanowi istotnej wady w analizie konstrukcji budowlanych, ponieważ celem obliczeń jest oszacowanie ryzyka i porównanie wariantów projektowych, a nie pełna rekonstrukcja struktury losowej systemu.
Rozwinięcie Bahadura stanowi w ten sposób formalne uzasadnienie inżynierskich oszacowań typu ($\ref{108}$)–($\ref{109}$), stosowanych w analizach systemowych, oraz pozwala interpretować korelacje $\rho_{ij}$ bez konieczności znajomości pełnego rozkładu łącznego.
Takie ujęcie jest szczególnie przydatne w analizie systemów konstrukcyjnych, gdzie:
- mechanizmy zniszczenia często współwystępują,
- brak jest danych umożliwiających estymację pełnych rozkładów wielowymiarowych,
- dostępna jest jedynie wiedza o częstości awarii oraz ich współzależności.
W przedstawionym w III części pracy modelu dynamicznym rozwinięcie Bahadura pełni rolę łącznika pomiędzy:
- opisem systemu jako zbioru mechanizmów zniszczenia,
- oszacowaniami korelacji pomiędzy tymi mechanizmami,
- oraz analizą niezawodności systemu jako całości.
Umożliwia to budowę hybrydowego modelu binarno-ciągłego, w którym geometryczna analiza funkcji granicznych jest uzupełniona systemowym opisem zależności pomiędzy mechanizmami zniszczenia. W klasycznych zagadnieniach niezawodności systemów złożonych mechanizmy zniszczenia $Z_1,\dots,Z_n$ są zdarzeniami binarnymi. Każdy mechanizm może wystąpić albo nie wystąpić, co naturalnie prowadzi do opisu za pomocą zmiennych losowych binarnych:
$$ \begin{equation}I_k = \begin{cases}
1 & \text{jeżeli mechanizm } Z_k \text{ został uruchomiony}\\
0 & \text{w przeciwnym przypadku}\\
\end{cases} \label{122} \end{equation} $$
Metoda uogólnionej korelacji
W pracy Kudzys (1985) przedstawiono praktyczny, uproszczony sposób szacowania niezawodności systemu niezawodnościowego złożonego ze skorelowanych elementów. Wprowadzono pojęcie uogólnionego współczynnika korelacji, to znaczy takiego zastępczego (integralnego) współczynnika korelacji, który jeden ujmuje efekt wielu wzajemnych współczynników korelacji elementów. Uogólniony współczynnik korelacji $\rho_g$ można zapisać w postaci:
$$ \begin{equation}\rho_g = \cfrac {\Delta P} {\Delta P_{max}} \label{123} \end{equation} $$
gdzie:
$\Delta P$ – poprawka oszacowania niezawodności, uwzględniająca błąd obliczeń, wskutek nie uwzględnienia korelacji (lub stochastycznej zależności) elementów,
$\Delta P_{max} $ – maksymalna wartość poprawka oszacowania niezawodności.
Niezawodność systemu złożonego z $r = n \cdot m$ elementów można obliczyć jak dla szeregowo połączonych wszystkich elementów z zależności ($\ref{90}$) , ale z poprawka $\Delta P$:
$$ \begin{equation} p_s= \prod \limits_{i=1}^r p_{s,i} +\Delta P \label{124} \end{equation} $$
n – liczba elementów połączonych szeregowo,
m- liczba bloków po n-elementów połączonych równolegle,
$r=ncdot m$ – całkowita liczba elementów
$p_{s,i}$ – niezawodność elementu i-tego $(i = 1,.., r)$.
Maksymalny błąd obliczeń niezawodności systemu, w którym wytrzymałość i obciążenia są nieskorelowane, można oszacować z zależności :
$$ \begin{equation} \Delta P_{max} = \min \limits_{i=1}^ r p_{s,i} – \sum \limits_{i=1}^ r (1 – p_{s,i}) ] \label{125} \end{equation} $$
gdzie
$ \min \limits_{i=1}^ r p_{s,i}$ – minimalna niezawodność elementu spośród r elementów systemu.
Z ($\ref {125}$) otrzymujemy oszacowanie niezawodności systemu $p_s$ :
$$ \begin{equation} \prod \limits_{i=1}^r p_{s,i} \le p_s \le \prod \limits_{i=1}^r p_{s,i} + \min \limits_i p_{s,i} – [ 1- \sum\limits_{i=1}^r (1 – p_{s,i})]\label{126} \end{equation} $$
Z oszacowania ($\ref{126}$) wynika, że uogólniony współczynnik korelacji ($\ref{123}$) można wyznaczyć z formuły:
$$ \begin{equation} \rho_g =\cfrac {\Delta P} { \min\limits_i p_{s,i} – [1-\sum\limits_{i=1}^r (1-p_{s,i})]}\label{127} \end{equation} $$
przy czym można zastosować przybliżenie, wynikające z odwrócenia ($\ref {96}$):
$$ \begin{equation} \rho _g \approx \cfrac {1} { 1 – \sum \limits_{i=1}^r (1-p_{si})} \approx \prod \limits_{i=1}^r p_{s,i} \label{128} \end{equation} $$
Przybliżenie ($\ref{128}$) ma charakter czysto inżynierski i jest uzasadnione wyłącznie dla systemów o wysokiej niezawodności elementów.
Po podstawieniu $\Delta P$ uzyskanego z ($\ref{127}$) do ($\ref{124}$), uzyskujemy podstawowe wyrażenie metody uogólnionej korelacji, do oszacowania niezawodności systemu złożonego z dowolnych elementów powiązanych w strukturę mieszaną:
$$ \begin{equation} p_s \approx \rho_g \cdot \min\limits_i p_{s,i} + (1-\rho_g )\left [1- \prod\limits_{i=1}^r (1-p_{s,i})\right ] \label {129} \end{equation} $$
Podstawowym problemem metody uogólnionej korelacji jest wyznaczenie współczynnika $\rho_g $ ($\ref{123}$). Dla normalnie rozłożonych funkcji granicznych $g_i()$, miarodajną wartość uogólnionego współczynnika korelacji sytemu można wyznaczyć z formuły :
$$ \begin{equation} \rho_g \approx \ \overline {\rho}_g \left \{ 2 – \left [ \overline\rho_g + \cfrac {(1-\overline \rho_g) \cdot (3-log \, n)} {1-0,1 {\rho^2}_m \cdot (3 – log\, n)^2 } \right] \right \} \label{130}\end{equation} $$
gdzie:
$$ \begin{equation} \overline {\rho}_g= \cfrac {2}{n \cdot (n-1)} \sum\limits_{i<j} \rho_{i,j} \label{131} \end{equation} $$
jest średnią wartością współczynników korelacji wzajemnej $\rho_{i,j}$ elementu (i) z (j), uzyskaną przez uśrednianie po wszystkich r – elementach systemu, w ogólności skorelowanych, czyli statystycznie lub funkcjonalnie zależnych.
Do liczby elementów $r$ wliczany jest każdy blok (podsystem), który jest rozpatrywany jako samoistny element systemu włączając w to elementy połączeń oraz stężenia konstrukcji.
W pracy sprawdzono dokładność formuły $(\ref{130})$ przez porównanie z wynikami dokładnymi uzyskanymi przez całkowanie gęstości prawdopodobieństwa i stwierdzono, że dokładność metody uogólnionej korelacji jest zadawalająca, dla liczby zdarzeń (elementów konstrukcji) $(r< 500)$ .
Konkluzja rozdziału – rola oszacowań systemowych
Wszystkie przedstawione w niniejszym rozdziale metody oszacowań niezawodności systemu – od klasycznych oszacowań Cornella–Barlowa–Proschana, poprzez oszacowania Ditlevsena i Ditlevsena–Madsena, aż po modele binarne oparte na rozwinięciu Bahadura oraz metodę uogólnionej korelacji – opisują niezawodność konstrukcji na poziomie zdarzeń binarnych oraz zależności statystycznych pomiędzy tymi zdarzeniami. Wspólną cechą tych metod jest rezygnacja z pełnego opisu rozkładu łącznego zmiennych losowych na rzecz informacji ograniczonej: niezawodności elementów, struktur systemu (ścieżki i cięcia), korelacji parowych lub ich uogólnionych miar.
Takie podejście odpowiada rzeczywistym możliwościom praktyki inżynierskiej, w której pełna identyfikacja wielowymiarowych rozkładów losowych jest zazwyczaj niemożliwa, natomiast dostępna jest wiedza o mechanizmach zniszczenia, ich częstości oraz współwystępowaniu. Metody oszacowań systemowych tworzą w tym sensie hierarchię informacyjną, w której dokładność oceny niezawodności rośnie wraz z ilością i jakością dostępnych informacji, przy zachowaniu kontroli nad bezpieczeństwem obliczeń.
W dalszej części pracy mechanizmy zniszczenia $Z_k$ będą interpretowane jako realizacje funkcji granicznych $g(\mathbf{X}(t), zdefiniowanych w przestrzeni losowej zmiennych podstawowych i – w ujęciu dynamicznym – w czasie. Niezawodność systemu nie będzie już opisywana wyłącznie jako kombinacja zdarzeń binarnych, lecz jako własność składanej powierzchni stanu, będącej obwiednią zbioru powierzchni granicznych odpowiadających poszczególnym mechanizmom zniszczenia.
Takie ujęcie umożliwia naturalne połączenie klasycznej teorii systemów niezawodnościowych z geometryczną analizą przestrzeni losowej, charakterystyczną dla metod FORM/SORM, a jednocześnie pozwala na zachowanie systemowej interpretacji mechanizmów zniszczenia. W szczególności otwiera to drogę do wprowadzenia wag mechanizmów zniszczenia, opartych nie tylko na częstości ich realizacji, lecz również na konsekwencjach strukturalnych, funkcjonalnych i eksploatacyjnych ich wystąpienia.
W rezultacie przedstawione w niniejszym rozdziale oszacowania należy traktować nie jako konkurencyjne wobec metod geometrycznych, lecz jako ich naturalne uzupełnienie i statyczny limit, stanowiący punkt wyjścia do dalszego, bardziej ogólnego opisu niezawodności konstrukcji w ujęciu binarno-ciągłym i dynamicznym.
Część III
Niezawodnościowy model dynamiczny konstrukcji budowlanej
Konstrukcja budowlana jako dynamiczny układ losowy w warunkach niepełnej informacji
Wprowadzenie
Geometryczno-dynamiczny opis niezawodności systemu
W częściach poprzednich przedstawiono probabilistyczny opis zmiennych losowych, definicję zastępczego współczynnika niezawodności $\tilde{\beta}$ oraz jego geometryczną interpretację, niezależną od wyboru konkretnego modelu probabilistycznego. Wykazano, że przy poprawnej interpretacji zastępczego prawdopodobieństwa przetrwania $\tilde{p}_s$ możliwe jest sprowadzenie oceny niezawodności do jednej, spójnej miary geometrycznej, nawet w przypadku różnych rozkładów brzegowych i odmiennych modeli statystycznych. Równolegle niezawodność konstrukcji była analizowana na poziomie systemowym, jako własność zbioru zdarzeń binarnych odpowiadających uruchomieniu poszczególnych mechanizmów zniszczenia oraz ich zależności statystycznych. Takie ujęcie, charakterystyczne dla klasycznej teorii systemów niezawodnościowych, pozwala na ocenę niezawodności przy ograniczonej informacji probabilistycznej i stanowi naturalny punkt odniesienia dla analiz inżynierskich, lecz nie zapewnia bezpośredniego powiązania z geometrią przestrzeni losowej ani z mechaniką zjawisk prowadzących do zniszczenia.
Zestawienia pośrednie obejmujące klasyczne metody analizy niezawodności, takie jak FORM i SORM oraz ich odmiany, pełnią w niniejszym opracowaniu rolę wtórną i narzędziową. Metody te nie stanowią osi dalszej narracji, lecz są traktowane jako szczególne przypadki lub przybliżenia bardziej ogólnego opisu geometryczno-systemowego.
W niniejszej części pracy przyjmuje się bardziej ogólną perspektywę. Mechanizmy zniszczenia $Z_k$ są interpretowane jako realizacje funkcji granicznych $g_k(\mathbf X,t)=0$, zdefiniowanych w przestrzeni losowych zmiennych podstawowych $\mathbf X$ oraz – w ujęciu dynamicznym – w czasie $t$. Każdy mechanizm zniszczenia odpowiada odrębnej powierzchni granicznej, dzielącej przestrzeń losową na obszar stanów bezpiecznych i obszar stanów zniszczenia. Niezawodność systemu nie jest w tym ujęciu prostą kombinacją zdarzeń binarnych, lecz własnością składanej powierzchni stanu, będącej obwiednią zbioru powierzchni granicznych odpowiadających poszczególnym mechanizmom zniszczenia. Geometryczna interpretacja niezawodności pozwala na bezpośrednie powiązanie opisu systemowego z koncepcją punktu najbardziej prawdopodobnego zniszczenia (MPP) oraz z pierwotną, geometryczną definicją współczynnika niezawodności $\beta$.
Takie podejście zapewnia ciągłość pomiędzy opisem systemowym a opisem ciągłym: zdarzenia binarne pojawiają się jako konsekwencja przekroczenia funkcji granicznych, natomiast zależności pomiędzy mechanizmami zniszczenia wynikają zarówno z korelacji zmiennych losowych, jak i z geometrii powierzchni granicznych w przestrzeni losowej. Klasyczne oszacowania systemowe mogą być w tym sensie interpretowane jako przybliżenia lub projekcje bardziej ogólnego opisu geometrycznego.
Istotnym elementem proponowanego ujęcia jest możliwość wprowadzenia wag mechanizmów zniszczenia, odzwierciedlających nie tylko częstość ich realizacji, lecz również konsekwencje strukturalne, funkcjonalne i eksploatacyjne ich wystąpienia. W ujęciu dynamicznym prowadzi to do naturalnego rozszerzenia pojęcia niezawodności z własności statycznej na proces losowy w czasie.
W tej części pracy wprowadzono dynamiczne ujęcie niezawodności konstrukcji budowlanej, w którym obiekt traktowany jest jako nieliniowy układ losowy ewoluujący w czasie i funkcjonujący w warunkach niepełnej informacji. Niezawodność nie jest w tym ujęciu cechą jednorazową ani stałą właściwością konstrukcji, lecz wynikiem współdziałania wielu procesów losowych o różnej naturze fizycznej, czasowej i informacyjnej. Odpowiedź konstrukcji determinowana jest przez pięć zasadniczych grup czynników niepewności: $X_1$ – właściwości materiałowe, $X_2$ – geometria i imperfekcje, $X_3$ – obciążenia zewnętrzne, $X_4$ – niepewność modelu obliczeniowego oraz $X_5$ – zdarzenia wyjątkowe. Czynniki te działają w czasie, są wzajemnie sprzężone i mogą być opisywane różnymi modelami probabilistycznymi oraz różnymi skalami czasowymi, obejmując zarówno niepewność aleatoryczną, jak i epistemiczną.
Rysunek 17 ilustruje podstawowe cechy dynamicznego modelu niezawodności na przykładzie kilku mechanizmów zniszczenia $M_1,\ldots,M_m$ oraz odpowiadających im funkcji granicznych $g_{M_i}(\mathbf U,t)=0$ w przestrzeni zmiennych niezależnych Gaussa $\mathbf U=(U_1,U_2)$. W przeciwieństwie do ujęcia statycznego, powierzchnie graniczne nie są obiektami stałymi, lecz zmieniają swoje położenie i kształt w czasie, na skutek degradacji materiałów, akumulacji uszkodzeń, zmian warunków użytkowania lub wystąpienia zdarzeń wyjątkowych. Geometrycznie przejawia się to jako przesuwanie lub kurczenie się powierzchni granicznych w przestrzeni losowej. Wraz z ich ewolucją przemieszcza się również punkt najbardziej prawdopodobny zniszczenia, którego położenie w kolejnych chwilach czasu $t_0,t_1,\ldots$ tworzy trajektorię krytyczną. Odpowiadający tej trajektorii współczynnik niezawodności $\tilde{\beta}(t)$ zmienia się w czasie, osiągając minimum w chwili krytycznej $t^\ast$.
W przeciwieństwie do ujęcia statycznego, powierzchnie graniczne nie są obiektami stałymi, lecz zmieniają swoje położenie i kształt w czasie. Zmiany te mogą wynikać z degradacji materiałów, akumulacji uszkodzeń, zmian warunków użytkowania, oddziaływań środowiskowych lub wystąpienia zdarzeń wyjątkowych. Geometrycznie przejawia się to jako „kurczenie się” lub przesuwanie powierzchni granicznych w przestrzeni losowej. Wraz z ewolucją powierzchni granicznych przemieszcza się również punkt najbardziej prawdopodobny zniszczenia (NPP). Jego położenie w kolejnych chwilach czasu $t_0,t_1,\ldots$ tworzy trajektorię krytyczną w przestrzeni losowej, zaznaczoną na rys. 17. Odpowiadający tej trajektorii współczynnik niezawodności $\tilde{\beta}(t)$ zmienia się w czasie, osiągając minimum w chwili krytycznej $t^\ast$.
W klasycznym ujęciu niezawodności analiza sprowadza się do oceny pojedynczego stanu granicznego w ustalonym momencie czasu. W ujęciu dynamicznym stan bezpieczeństwa konstrukcji jest natomiast procesem czasowym, a współczynnik niezawodności $\tilde{\beta}(t)$ należy interpretować jako miarę aktualnego stanu układu, a nie jako stały parametr przypisany konstrukcji na etapie projektu.

Rys. 17. Dynamiczna geometria niezawodności
Rys. 17 łączy geometrię powierzchni granicznych z ewolucją czasową,; pokazuje przejście od punktowej oceny niezawodności do analizy procesowej; stanowi naturalny pomost pomiędzy klasycznymi metodami FORM a binarnymi i markowowskimi modelami dynamicznymi, które zostaną wprowadzone w dalszej części opracowania.
Dynamiczny model niezawodności opisany powyżej zachowuje pełną informację geometryczną, jednak z punktu widzenia algorytmizacji i analizy systemowej prowadzi do znacznej złożoności obliczeniowej, zwłaszcza w przypadku wielu mechanizmów zniszczenia. Uzasadnia to wprowadzenie jego odmiany binarnej, która zostanie przedstawiona w kolejnym podrozdziale. Model dynamiczny opiera się na ewolucji powierzchni granicznych $g_{M_i}(\mathbf{X},t)=0$ oraz trajektorii krytycznej w przestrzeni losowej. Ujęcie to zachowuje pełną informację geometryczną, lecz z punktu widzenia algorytmizacji oraz analizy systemowej prowadzi do znacznej złożoności obliczeniowej, zwłaszcza w przypadku wielu mechanizmów zniszczenia.
Opis modelu dynamicznego
Dynamiczna funkcja graniczna i miara niezawodności
W dynamicznym modelu niezawodności funkcja graniczna zależy jawnie od czasu i ma postać $g(\mathbf{X},t)$,
gdzie $\mathbf{X}=[X_1,X_2,X_3,X_4,X_5]$ jest wektorem stanu konstrukcji. W tab. 15, w której zestawiono składowe wektora stanu konstrukcji $\mathbf{X}=[X_1,X_2,X_3,X_4,X_5]$ wraz z ich interpretacją fizyczną, charakterem niepewności oraz rolą w dynamicznym modelu niezawodności. Tablica ta stanowi naturalne przejście od opisu pojedynczych rozkładów probabilistycznych (tab. 3) do systemowego opisu konstrukcji jako dynamicznego układu losowego.
Tab.15 Czynniki niepewności losowych konstrukcji budowlanych
Zastępcze zmienne istotne Xi (i=1, …, 5)
\[ \begin{array}{c|l|l|l|l}
\hline \text{Zmienna} & \text{Sens fizyczny} & \text{Charakter niepewności} & \text{Model opisu} & \text{Rola w systemie} \\
\hline
(1) & (2) & (3) & (4) & (5) \\
\hline X_1 & \text{Właściwości materiałów} &
\begin{array}{l}\text{zmienność materiału} \\ \text{i pomiaru}\end{array} & \begin{array}{l}\text{rozkłady prawdopodobieństwa} \\\text{(normalny, log-normalny, Weibull)}\end{array} &\text{nośność, sztywność} \\
\hline X_2 & \text{Geometria i imperfekcje} & \begin{array}{l}\text{wykonanie,} \\\text{montaż}\end{array} &\begin{array}{l}\text{rozkłady odchyłek geometrycznych} \\\text{(np. normalny ucięty)}\end{array} &\text{stabilność, efekty II i III rzędu} \\
\hline X_3 & \text{Obciążenia zewnętrzne} & \begin{array}{l} \text{natura zjawisk} \\ \text{i użytkowanie} \end{array} & \begin{array}{l} \text{rozkłady ekstremalne lub ciągłe} \\\text{(GEV, Gumbel, normalny)} \end{array} & \text{wymuszenia zewnętrzne} \\
\hline X_4 & \text{Model obliczeniowy} & \begin{array}{l} \text{uproszczenia} \\ \text{i przybliżenia} \end{array} & \begin{array}{l} \text{błąd modelu} \\ \text{(przesunięcie + rozrzut)}\end{array} &\text{wiarygodność obliczeń} \\
\hline X_5 & \text{Zdarzenia wyjątkowe} & \begin{array}{l} \text{brak wiedzy o przyszłych} \\ \text{sposobach użytkowania} \end{array} & \begin{array}{l} \text{procesy losowe w czasie} \\ \text{(np. proces Poissona)} \end{array} & \text{zmiana stanu systemu} \\
\hline\end{array}\]
Uwagi do tab. 15
1) W tabeli zestawiono zastępcze zmienne losowe integrujące w sobie czynniki niepewności związane z pięcioma podstawowymi grupami oddziaływań. Zmienne te tworzą wektor stanu systemu $\mathbf{X}$ i mogą mieć różne rozkłady brzegowe, określone typami rozkładów z tab. 2 oraz odpowiadającymi im parametrami.
Każda składowa $X_i$ może być funkcją wielu innych zmiennych losowych. Przykładowo, nośność przekroju zależy jednocześnie od losowych wymiarów geometrycznych oraz losowych właściwości materiałowych. Parametry zmiennej zastępczej $X_i$ są wówczas wyznaczane zgodnie z zasadami rachunku momentów funkcji zmiennych losowych.
2) Macierz korelacji współrzędnych wektora stanu $\mathbf{X}$ powinna być określona na podstawie analizy zjawisk fizycznych oraz tzw. korelacji konstrukcyjnej. Korelacje te nie wynikają wyłącznie z danych statystycznych, lecz często z mechaniki pracy konstrukcji oraz wspólnego źródła niepewności.
3) Wpływ czasu na niezawodność konstrukcji można uwzględniać poprzez modelowanie każdej zmiennej stanu $X_i$ jako procesu stochastycznego lub – w zalecanym podejściu inżynierskim – poprzez zastosowanie rozkładów wartości ekstremalnych zawierających nielosowy parametr okresu powrotu $T$. Takie podejście pozwala sprowadzić problem zmienny w czasie do zadania niezmiennego w czasie.
3) Modelowanie degradacji i zmian właściwości w czasie, takich jak korozja, pełzanie czy zmęczenie materiału, zaleca się realizować poprzez odpowiedni dobór modelu dystrybuanty z zestawienia w tab. 3 oraz poprzez przyjęcie powierzchni granicznej, która w sensie geometrycznym „kurczy się” w czasie.
4) Niepewność epistemiczną, wynikającą z braku pełnej wiedzy o dokładności stosowanego uproszczonego modelu obliczeniowego, należy przypisywać do zmiennej $X_4$.
5) Konieczne jest wyraźne rozróżnienie ról zmiennych $X_4$ i $X_5$. Zmienna $X_4$ opisuje niepewność epistemiczną o charakterze modelowym i systematycznym, natomiast zmienna $X_5$ reprezentuje zdarzenia wyjątkowe i rzadkie, których wystąpienie ma charakter losowy w czasie i może prowadzić do skokowej zmiany stanu systemu. Rozróżnienie to ma kluczowe znaczenie dla poprawnej interpretacji dynamicznego modelu niezawodności.
Stan konstrukcji w chwili $t$ opisany jest warunkiem: $g(\mathbf{X},t)>0$ – stan bezpieczny, $g(\mathbf{X},t)\le 0$ – stan zniszczenia.
Odpowiadające temu chwilowe zastępcze prawdopodobieństwo przetrwania oraz współczynnik niezawodności definiuje się jako:
$\tilde{p}_s(t)=\mathrm{Prob}{g(\mathbf{X},t)>0}$,
$\tilde{\beta}(t)=\Phi^{-1}[\tilde{p}_s(t)]$.
Logiczny schemat dynamicznego modelu niezawodności przyjmuje postać:
$\mathbf{X}(t)\rightarrow g(\mathbf{X},t)\rightarrow \tilde{p}_s(t)\rightarrow \tilde{\beta}(t)$.
Istotne, zastępcze zmienne stanu konstrukcji
Przyjęto, że losową naturę konstrukcji budowlanej wraz z jej warunkami brzegowymi oraz oddziaływaniem otoczenia można w sposób wystarczający opisać pięcioma grupami czynników niepewności, ujętych w zastępczych zmiennych stanu $X_1$–$X_5$. Zmienne te stanowią wejście do dynamicznego modelu niezawodności i są interpretowane jako składowe wektora stanu systemu $\mathbf{X}$.
Czynniki te są opisywane różnymi modelami statystycznymi, w szczególności rozkładami prawdopodobieństwa zestawionymi w tab. 3, a także procesami losowymi, w tym procesami punktowymi (np. procesem Poissona). Przyjęcie zastępczych zmiennych stanu umożliwia ujednolicenie opisu niepewności o różnej naturze oraz powiązanie ich z geometryczną interpretacją niezawodności w przestrzeni losowej.
Globalna miara niezawodności w czasie
Globalną miarę niezawodności konstrukcji w okresie użytkowania $[0,T]$ definiuje się jako minimum chwilowego współczynnika niezawodności:
$\tilde{\beta}{\min}=\min{t\in[0,T]}\tilde{\beta}(t)$.
Miara ta identyfikuje najbardziej niekorzystny moment eksploatacji oraz odpowiadający mu stan konstrukcji. W sensie niezawodnościowym oznacza to, że proces ewolucji konstrukcji w czasie można interpretować jako szeregowy proces zdarzeń, w którym utrata bezpieczeństwa następuje w chwili osiągnięcia minimalnej wartości $\tilde{\beta}(t)$.
Trajektoria krytyczna – uogólnienie punktu Hasofera–Linda
Pojęcie trajektorii krytycznej $\mathbf{X}^\ast(t)$ stanowi uogólnienie klasycznego punktu krytycznego Hasofera–Linda na przypadek zależny od czasu. Trajektoria ta opisuje sekwencję stanów układu prowadzących do osiągnięcia powierzchni granicznej w chwili krytycznej $t^\ast$, dla której $\tilde{\beta}(t)$ przyjmuje wartość minimalną.
W przeciwieństwie do podejścia statycznego, utrata niezawodności nie musi być wynikiem ekstremalnej realizacji pojedynczej zmiennej losowej, lecz może wynikać z kumulacji umiarkowanych, lecz niekorzystnych zmian wielu składowych wektora stanu, rozłożonych w czasie.
Z inżynierskiego punktu widzenia trajektoria krytyczna stanowi narzędzie interpretacyjne umożliwiające identyfikację mechanizmów prowadzących do utraty niezawodności oraz okresów największej wrażliwości konstrukcji w całym cyklu jej użytkowania.
Binarna reprezentacja mechanizmów zniszczenia
W celu uproszczenia opisu systemowego oraz przygotowania gruntu pod analizę dynamiczną i scenariuszową wprowadza się binarną odmianę modelu dynamicznego, w której każdy mechanizm zniszczenia reprezentowany jest przez zmienną dwuwartościową, informującą o jego stanie w danej chwili czasu.
Dla każdego mechanizmu zniszczenia $M_i$ definiuje się binarną zmienną stanu:
$M_i(t)=
\begin{cases}
0, & g_{M_i}(\mathbf{X}(t),t)>0 \quad \text{(mechanizm nieaktywny)} \
1, & g_{M_i}(\mathbf{X}(t),t)\le 0 \quad \text{(mechanizm aktywny)}
\end{cases}$
Zmienna $M_i(t)$ informuje wyłącznie o fakcie przekroczenia granicy przez dany mechanizm, abstrahując od geometrycznego położenia punktu w przestrzeni losowej. Tym samym ciągły opis geometryczny zostaje zredukowany do opisu logiczno-stanowego, zachowując jednak informację o czasie aktywacji mechanizmów.
Wektor stanu binarnego systemu
Stan systemu konstrukcyjnego w chwili $t$ opisany jest przez wektor binarny:
$\mathbf{M}(t)=[M_1(t),M_2(t),\ldots,M_m(t)] \in {0,1}^m$
gdzie $m$ jest liczbą rozpatrywanych mechanizmów zniszczenia.
Każdy punkt w przestrzeni ${0,1}^m$ odpowiada określonej konfiguracji aktywnych i nieaktywnych mechanizmów. Ewolucja systemu w czasie jest opisana jako trajektoria w przestrzeni stanów binarnych.
Wagi mechanizmów i uogólniony stan systemu
W celu uwzględnienia różnej istotności mechanizmów zniszczenia wprowadza się wagi mechanizmów $w(M_i)>0$, odzwierciedlające ich znaczenie konstrukcyjne, konsekwencje zniszczenia lub udział w degradacji systemu.
Definiuje się uogólnioną, skalarna miarę stanu systemu:
$S(t)=\sum_{i=1}^{m} w(M_i),M_i(t)$
Wielkość $S(t)$ stanowi ciągłą miarę degradacji systemu, mimo binarnej natury poszczególnych mechanizmów. Pozwala ona opisywać zarówno układy szeregowe, równoległe, jak i mieszane, bez konieczności jawnego definiowania struktury logicznej systemu.
Kryterium zniszczenia systemu w modelu binarnym
Stan zniszczenia systemu definiuje się przez przekroczenie ustalonego progu krytycznego $S_{cr}$:
$\text{system zniszczony} ;\Longleftrightarrow; S(t)\ge S_{cr}$
Dobór progu $S_{cr}$ umożliwia odtworzenie klasycznych struktur niezawodnościowych:
układ szeregowy – $S_{cr}=\min_i w(M_i)$,
układ równoległy – $S_{cr}=\sum_i w(M_i)$,
układ mieszany – próg pośredni, zależny od interpretacji inżynierskiej.
W tym sensie binarny model dynamiczny stanowi ciągłe uogólnienie klasycznych modeli szeregowo-równoległych.
Związek z dynamiczną miarą niezawodności
Chwilowa wartość zastępczego współczynnika niezawodności $\tilde{\beta}(t)$ jest w modelu binarnym interpretowana pośrednio, poprzez stan systemu $S(t)$. Globalna miara niezawodności w okresie $[0,T]$ zachowuje swoją definicję:
$\tilde{\beta}{\min}=\min{t\in[0,T]}\tilde{\beta}(t)$
przy czym moment osiągnięcia $\tilde{\beta}{\min}$ odpowiada chwili, w której konfiguracja binarna mechanizmów prowadzi do spełnienia warunku $S(t)\ge S{cr}$.
Interpretacja dynamiczna i algorytmiczna
W przeciwieństwie do klasycznych metod FORM, w których system z wieloma mechanizmami analizowany jest poprzez minimalny współczynnik $\min \beta(M_i)$, model binarny:
zachowuje informację o korelacji i współaktywacji mechanizmów,
umożliwia analizę sekwencji zdarzeń w czasie,
jest bezpośrednio algorytmizowalny i możliwy do implementacji komputerowej,
stanowi naturalny pomost do modeli markowowskich, procesów punktowych oraz symulacji Monte Carlo w czasie.
Znaczenie inżynierskie odmiany binarnej
Odmiana binarna dynamicznego modelu niezawodności:
upraszcza opis systemowy bez utraty kluczowej informacji decyzyjnej,
umożliwia analizę scenariuszową i prognostyczną,
pozwala jawnie modelować wpływ degradacji i zdarzeń wyjątkowych,
przygotowuje grunt pod pełny model dynamiczny niezawodności konstrukcji, w którym geometria powierzchni granicznych pełni rolę informacyjną, a decyzje systemowe podejmowane są na poziomie stanów binarnych.
Pojęcie trajektorii krytycznej $\mathbf{X}^\ast(t)$,stanowi uogólnienie klasycznego punktu krytycznego Hasofera–Linda na przypadek zależny od czasu. Trajektoria krytyczna opisuje sekwencję stanów prowadzących do osiągnięcia powierzchni granicznej i umożliwia identyfikację mechanizmów odpowiedzialnych za utratę niezawodności, w tym procesów degradacyjnych oraz wpływu zdarzeń wyjątkowych.
Dynamiczny stan graniczny
W przeciwieństwie do klasycznego ujęcia statycznego, w którym funkcja graniczna zależy wyłącznie od zmiennych losowych $\mathbf{X}$, w modelu dynamicznym zarówno położenie, jak i kształt powierzchni $g(\mathbf{X},t)=0$ mogą zmieniać się w czasie. Zmiany te mogą wynikać z degradacji materiałów, akumulacji uszkodzeń, zmian warunków brzegowych lub oddziaływań, a także z występowania zdarzeń wyjątkowych reprezentowanych przez zmienną $X_5$. W szczególności możliwe są sytuacje, w których powierzchnia graniczna ulega ciągłemu przesunięciu w czasie (np. w wyniku korozji lub pełzania), jak również sytuacje skokowe, w których jej postać zmienia się gwałtownie w następstwie zdarzenia losowego.
W dynamicznym ujęciu niezawodności konstrukcji powierzchnia graniczna nie jest obiektem statycznym, lecz zależy jawnie od czasu oraz od ewolucji stanu układu. Funkcję graniczną definiuje się w postaci
$$\begin{equation} g ( \mathbf{X} , t) \label{132}\end{equation}$$
lub w praktycznym ujęciu inżynierskim
$$\begin{equation} g(\mathbf{X},t) \stackrel{\rm def}{=} R(\mathbf{X},t) – E(\mathbf{X},t) \label{133}\end{equation}$$
gdzie:
$\mathbf{X}=[X_1,X_2,X_3,X_4,X_5]$ jest wektorem stanu konstrukcji,
$t$ – czas lub lub uogólniony parametr rozwoju procesu (np. projektowy okres użytkowania, liczbę cykli obciążenia, czas ekspozycji środowiskowej),
$R(\mathbf{X},t)$ – losowa nośność konstrukcji, lub losowy efekt oddziaływań,
$E(\mathbf{X},t)$ – losowe obciążenia,
przy czym obie wielkości mogą zależeć od czasu w sposób deterministyczny lub stochastyczny.
Ponieważ czas $t$ parametryzuje losowy model dynamiczny, więc model można traktować jako proces stochastyczny i analizować z wykorzystaniem aparatu matematycznego stosowanego do analizy takich procesów.
Stan konstrukcji w chwili $t$ opisany jest warunkiem:
$$ \begin{equation}\begin{cases}
g(\mathbf{X},t)>0, & \text{ stan bezpieczny: konstrukcja jest w obszarze } \Omega_r (t) \\
g(\mathbf{X},t) \le 0, & \text{ stan bezpieczny : konstrukcja znalazła się w obszarze } \Omega_f (t) \\
\label{134} \end{cases} \end{equation}$$
Dynamiczna powierzchnia graniczna stanowi podstawę do określania chwilowego prawdopodobieństwa przetrwania $\tilde{p}_s(t)$ oraz odpowiadającego zastępczego współczynnika niezawodności $\tilde{\beta}(t)$:
$\tilde{p}_s(t) \stackrel{\rm def}{=} \mathrm{Prob} \{ g(\mathbf{X},t)>0,\}$.
$\tilde{\beta}(t) \stackrel{\rm def}{=} \Phi^{-1} \left [ \tilde{p}_s(t) \right] $,
gdzie $\Phi(\cdot)$ jest dystrybuantą standaryzowanego rozkładu normalnego.
Logiczny schemat dynamicznego modelu niezawodności konstrukcji ma postać
$ \mathbf{X}(t) \rightarrow g[ \mathbf{X},t] \rightarrow \tilde{p}_s(t) \rightarrow \tilde{\beta}(t)$.
a w zapisie rozszerzonym, z uwzględnieniem interpretacji fizycznej, schemat ten przyjmie postać
$$ \begin{equation} $[X_1,X_2,X_3,X_4,X_5] \xrightarrow{\text{model mechaniczny}} g(\mathbf{X},t) \xrightarrow{\text{interpretacja probabilistyczna}} \tilde{p}_s(t) \xrightarrow{\Phi^{-1}} \tilde{\beta}(t)\label{{135}\end{equation}$$
Powyższa sekwencja odzwierciedla logiczny tok analizy niezawodności w ujęciu dynamicznym: od opisu fizycznych źródeł niepewności, poprzez model mechaniczny, aż do jednoznacznej miary niezawodności.
Globalna miara niezawodności w okresie użytkowania
Globalną miarę niezawodności konstrukcji w zadanym okresie użytkowania $[0,T]$ definiuje się jako minimum chwilowego współczynnika niezawodności w czasie :
$$\begin{equation} \tilde{\beta}_{min} \stackrel{\rm def}{=} \min \limits_ { t \in [0,T] } { \tilde {\beta} (t) } \label{136}\end{equation}$$
co oznacza, że globalna ocena niezawodności jest determinowana przez najbardziej niekorzystny moment w historii eksploatacji konstrukcji. Wynika stąd również, że proces w czasie współczynnika niezawodności można traktować jako szeregowy w sensie niezawodności proces następujących po sobie zdarzeń w kolejnych odcinkach czasu.
Globalny współczynnik $ \tilde{\beta}_{min}$ ($\ref{Gbeta}$), stanowi syntetyczną miarę bezpieczeństwa konstrukcji w całym rozpatrywanym okresie i może być bezpośrednio porównywana z wymaganymi poziomami niezawodności, niezależnie od przyjętego modelu probabilistycznego zmiennych losowych. Współczynnik ten zamyka schemat. ($\ref{{135}$), identyfikując krytyczny moment eksploatacji konstrukcji i pozwalając na ocenę bezpieczeństwa całego okresu użytkowania przy użyciu jednej, spójnej miary.
Trajektoria krytyczna w dynamicznym modelu niezawodności
W dynamicznym ujęciu niezawodności konstrukcji zniszczenie nie musi być związane z pojedynczym punktem w przestrzeni losowej, lecz z całą sekwencją stanów układu rozwijających się w czasie. W celu analizy tego procesu wprowadza się pojęcie trajektorii krytycznej, rozumianej jako taka trajektoria wektora stanu $\mathbf{X}(t)$ w przestrzeni losowej, dla której w pewnym momencie czasu zostaje osiągnięta powierzchnia graniczna $g(\mathbf{X},t)=0$, a wartość współczynnika niezawodności $\tilde{\beta}(t)$ przyjmuje minimum w rozpatrywanym okresie użytkowania:
Formalnie trajektorię krytyczną definiuje się jako funkcję $\mathbf{X}^\ast(t)$ spełniającą warunek
$$\begin{equation} \mathbf{X}^\ast(t) \stackrel{\rm def}{=} \min \limits_{\mathbf{X}(t)} {\tilde{\beta}(t)} \quad \\
\text{ przy ograniczeniu } g(\mathbf{X}(t),t)\ge 0 \text{ dla } t \in [0,T) \text { oraz } g(\mathbf{X}^\ast(t^\ast),t^\ast)=0 \text { w chwili krytycznej } t^\ast\in[0,T]
\label{137}\end{equation}$$
Moment $t^\ast$ odpowiada czasowi najbardziej niekorzystnemu z punktu widzenia niezawodności, dla którego zachodzi $\tilde{\beta}_{\min}=\tilde{\beta}(t^\ast)$ oraz $ \tilde{p}s(t^\ast)=\min \limits_{ t\in[0,T] }{\tilde{p}_s(t)}$.
Trajektoria krytyczna $\mathbf{X}^\ast(t)$ nie musi być trajektorią najbardziej prawdopodobną w sensie statystycznym dla każdego $t$, lecz jest trajektorią najbardziej niekorzystną w sensie niezawodnościowym. Może ona obejmować stopniową degradację wybranych składowych wektora stanu (np. $X_1$ i $X_2$), narastanie oddziaływań środowiskowych $X_3$, kumulację błędów modelowych $X_4$, a także skokowe zmiany stanu wywołane zdarzeniami wyjątkowymi reprezentowanymi przez $X_5$.
W przeciwieństwie do klasycznego podejścia FORM, w którym poszukiwany jest pojedynczy punkt najbardziej prawdopodobnego zniszczenia w ustalonej chwili czasu, pojęcie trajektorii krytycznej uwzględnia sprzężenie pomiędzy przestrzenią losową a czasem. Oznacza to, że stan krytyczny konstrukcji może być osiągnięty nie poprzez ekstremalne wartości pojedynczej zmiennej, lecz poprzez niekorzystną kombinację umiarkowanych odchyleń wielu zmiennych, rozłożonych w czasie.
W praktycznym ujęciu inżynierskim trajektoria krytyczna stanowi narzędzie interpretacyjne pozwalające na identyfikację mechanizmów prowadzących do utraty niezawodności, a nie wyłącznie na obliczenie liczbowej wartości $\tilde{\beta}_{\min}$. Analiza trajektorii krytycznej umożliwia wskazanie, które grupy zmiennych $X_i$ dominują w procesie degradacji oraz w jakim przedziale czasu konstrukcja jest najbardziej wrażliwa na oddziaływania i niepewności.
Warunek styczności trajektorii krytycznej z dynamiczną powierzchnią graniczną
W dynamicznym modelu niezawodności moment krytyczny $t^\ast$ odpowiada takiemu punktowi trajektorii $\mathbf{X}^\ast(t)$, w którym trajektoria ta styka się z dynamiczną powierzchnią graniczną $g(\mathbf{X},t)=0 $. Warunek ten jest uogólnieniem klasycznego warunku styczności Hasofera–Linda na przypadek zależny od czasu.
Formalnie w chwili krytycznej $t^\ast$ jest spełniony warunek geometryczny
$\nabla_{ \mathbf{X}} g(\mathbf {X}^\ast (t^\ast) , t^\ast) \parallel \nabla_{\mathbf{X}} \tilde{\beta}(\mathbf{X}^\ast (t^\ast), t^\ast)$
co oznacza, że gradient funkcji granicznej względem zmiennych losowych jest współliniowy z kierunkiem największego spadku niezawodności.
Równocześnie spełnione są warunki $g(\mathbf{X}^\ast(t^\ast),t^\ast)=0$ oraz $\tilde{\beta}(t^\ast)=\min_{t\in[0,T]}\tilde{\beta}(t)$.
Interpretacyjnie oznacza to, że w chwili $t^\ast$ dalsza ewolucja trajektorii w przestrzeni losowej prowadziłaby już do obszaru stanów niedopuszczalnych, a niezawodność konstrukcji osiąga minimum w całym okresie użytkowania. W przeciwieństwie do przypadku statycznego, warunek styczności dotyczy nie pojedynczego punktu w przestrzeni losowej, lecz punktu na trajektorii czasowej, co wprowadza dodatkowy stopień swobody związany z ewolucją układu.
Różnica pomiędzy punktem krytycznym Hasofera–Linda a trajektorią krytyczną w ujęciu dynamicznym
W klasycznym podejściu FORM punkt krytyczny Hasofera–Linda $\mathbf{U}^\ast$ jest pojedynczym punktem w przestrzeni zmiennych standaryzowanych, wyznaczonym dla ustalonej, niezmiennej w czasie funkcji granicznej $g(\mathbf{X})=0$. Punkt ten minimalizuje odległość od początku układu współrzędnych i definiuje współczynnik niezawodności $\beta_{HL}$ jako miarę geometryczną niezawodności w danym stanie obliczeniowym.
W dynamicznym ujęciu niezawodności nie istnieje jeden, uniwersalny punkt krytyczny. Zamiast tego rozpatruje się trajektorię krytyczną $\mathbf{X}^\ast(t)$ w rozszerzonej przestrzeni $(\mathbf{X},t)$, która opisuje ewolucję stanu konstrukcji w czasie i prowadzi do osiągnięcia powierzchni granicznej w chwili $t^\ast$. Odpowiadająca jej miara niezawodności $\tilde{\beta}(t)$ zmienia się w czasie, a globalny poziom bezpieczeństwa konstrukcji jest określany przez wartość minimalną $\tilde{\beta}_{\min}=\tilde{\beta}(t^\ast)$.
Kluczowa różnica polega na tym, że punkt krytyczny Hasofera–Linda opisuje najbardziej niekorzystną kombinację zmiennych losowych w jednym, ustalonym momencie czasu, natomiast trajektoria krytyczna uwzględnia kumulację efektów losowych, degradacyjnych i zdarzeń wyjątkowych rozłożonych w czasie. W efekcie utrata niezawodności może nastąpić nie wskutek ekstremalnej realizacji pojedynczej zmiennej, lecz poprzez sekwencję umiarkowanych, lecz niekorzystnych zmian wielu składowych wektora stanu.
Z inżynierskiego punktu widzenia oznacza to przejście od statycznej oceny bezpieczeństwa do analizy scenariuszowej, w której istotna jest identyfikacja mechanizmów prowadzących do stanu krytycznego oraz określenie okresów największej wrażliwości konstrukcji. Trajektoria krytyczna stanowi w tym sensie naturalne rozszerzenie idei punktu krytycznego Hasofera–Linda na przypadek konstrukcji pracujących w czasie i w warunkach niepełnej informacji.
Warunek optymalizacji trajektorii krytycznej – sformułowanie wariacyjne
Trajektorię krytyczną w dynamicznym modelu niezawodności można sformułować jako zadanie optymalizacji wariacyjnej w przestrzeni trajektorii wektora stanu $\mathbf{X}(t)$. Celem jest wyznaczenie takiej trajektorii $\mathbf{X}^\ast(t)$ oraz chwili krytycznej $t^\ast\in[0,T]$, dla których współczynnik niezawodności osiąga minimum w całym okresie użytkowania.
Formalnie zadanie to można zapisać w postaci
$\mathbf{X}^\ast(t),,t^\ast ;=^{\mathrm{df}}; \arg\min_{\mathbf{X}(t),,t\in[0,T]} \tilde{\beta}(t)$
przy ograniczeniu brzegowym $g(\mathbf{X}(t^\ast),t^\ast)=0$
oraz przy warunku dopuszczalności $g(\mathbf{X}(t),t)\ge 0$ dla $t\in[0,T)$.
Równoważnie, zadanie to można sformułować jako minimalizację funkcjonału
$ J[\mathbf{X}(t)] ;=^{\mathrm{df}}; \min_{t\in[0,T]} \tilde{\beta}(t)$
z ograniczeniem dynamicznym wynikającym z modelu ewolucji stanu konstrukcji oraz z warunkiem przejścia przez powierzchnię graniczną w chwili krytycznej.
Takie ujęcie podkreśla, że trajektoria krytyczna nie jest jedynie zbiorem punktów krytycznych dla kolejnych chwil czasu, lecz rozwiązaniem globalnego problemu optymalizacji w przestrzeni $(\mathbf{X},t)$, w którym czas stanowi zmienną decyzyjną na równi ze zmiennymi losowymi. W praktyce inżynierskiej rozwiązanie tego zadania ma charakter koncepcyjny i służy interpretacji mechanizmów utraty niezawodności, a nie bezpośredniej implementacji numerycznej.
Konsekwencje projektowe niezawodnościowego modelu dynamicznego konstrukcji budowlanej
Implikacje projektowe i interpretacyjne wynikające z dynamicznego ujęcia niezawodności konstrukcji są skutkiem wprowadzenia globalnej miary niezawodności $\tilde{\beta}_{\min}$, zdefiniowanej jako minimum chwilowego współczynnika niezawodności $\tilde{\beta}(t)$ w całym okresie użytkowania $[0,T]$.
Miara $\tilde{\beta}_{\min}$ w praktyce inżynierskiej może być porównywana z poziomami niezawodności stosowanymi w normach oraz wykorzystywana w procesie projektowania i przy ocenie istniejących konstrukcji. Poziomy normowe należy traktować jako punkty odniesienia, umożliwiające komunikację ryzyka i bezpieczeństwa, a nie jako elementy definiujące samą miarę niezawodności.
Związek pomiędzy $\tilde{\beta}_{\min}$ a wymaganiami niezawodności
Globalny współczynnik niezawodności $\tilde{\beta}{\min}$ stanowi syntetyczną miarę bezpieczeństwa konstrukcji w całym okresie użytkowania i może być porównywany z docelowymi poziomami niezawodności stosowanymi w praktyce inżynierskiej. W odróżnieniu od współczynników wyznaczanych dla pojedynczych stanów granicznych i ustalonych chwil czasu, $\tilde{\beta}{\min}$ odnosi się do najbardziej niekorzystnego scenariusza czasowego, a tym samym zawiera w sobie informację o marginesie bezpieczeństwa konstrukcji w warunkach długotrwałej eksploatacji.
Interpretacja wartości $\tilde{\beta}{\min}$ powinna uwzględniać charakter analizowanego obiektu, konsekwencje potencjalnego zniszczenia oraz poziom niepewności epistemicznej. W przypadku konstrukcji o typowych konsekwencjach awarii $\tilde{\beta}{\min}$ może być interpretowany analogicznie do docelowych poziomów niezawodności stosowanych w normach, przy czym należy pamiętać, że porównanie to ma charakter orientacyjny i służy głównie ocenie względnej oraz komunikacji ryzyka.
Dla konstrukcji o podwyższonych konsekwencjach zniszczenia, obiektów istniejących o niepełnej dokumentacji lub konstrukcji podlegających istotnym procesom degradacyjnym, dynamiczna miara $\tilde{\beta}_{\min}$ umożliwia identyfikację okresów największej wrażliwości oraz ocenę, czy aktualny poziom bezpieczeństwa pozostaje akceptowalny w całym rozpatrywanym horyzoncie czasu. W takim ujęciu decyzje projektowe nie wynikają wyłącznie z porównania pojedynczej liczby z wartością normową, lecz z analizy scenariuszy prowadzących do osiągnięcia minimum $\tilde{\beta}(t)$.
Dynamiczne podejście do niezawodności pozwala również na rozróżnienie pomiędzy konstrukcjami, które spełniają wymagania bezpieczeństwa w sensie statycznym, a tymi, dla których minimalny poziom niezawodności w czasie jest determinowany przez procesy degradacyjne lub zdarzenia rzadkie. W tym sensie $\tilde{\beta}_{\min}$ stanowi narzędzie wspomagające racjonalne decyzje inżynierskie, umożliwiające priorytetyzację działań projektowych, wzmacniających lub kontrolnych w całym cyklu życia konstrukcji
Procesy stochastyczne degradacji
Binarny proces stowarzyszony z monotonicznymi przejściami jest procesem Markowa rzędu 1.
Warunek:
$ \Pr(I_{t+1}=1\mid I_t=1)\ge \Pr(I_{t+1}=1\mid I_t=0)$
czyli:
„uszkodzenie sprzyja dalszemu uszkodzeniu”,
brak efektów cofania się stanu.
To jest dokładnie przypadek:
modeli degradacji,
modeli awarii progresywnych,
binarnych modeli dynamicznych niezawodności.
Ciąg zmiennych stowarzyszonych może być opisany jako proces Markowa wtedy, gdy zależności pomiędzy zmiennymi mają charakter lokalny w czasie i są monotoniczne, a aktualny stan systemu zawiera pełną informację o jego historii istotnej z punktu widzenia dalszej ewolucji. W szczególności w przypadku binarnych zmiennych opisujących mechanizmy zniszczenia, dodatnia asocjacja oraz brak możliwości cofania stanu prowadzą naturalnie do markowowskiego opisu dynamiki niezawodności.
Przykłady
Przykłady do części II
Przykład 1 [ Ścisłe momenty statystyczne a metoda linearyzacji ]
Pole powierzchni pręta zbrojeniowego o losowej średnicy D
Metodą ścisłą wyznaczymy parametry pola powierzchni pręta zbrojeniowego o losowej średnicy promieniu R=∅/2. Zmienne losowe oznaczymy dużymi literami R, a ich realizacje (wartości ) małymi literami r.
Pręty zbrojeniowe są walcowane z błędami promienia R, rozłożonymi podług normalnego rozkładu prawdopodobieństwa z wartością oczekiwaną $\mathcal {E} R= \mu_r = r_o$ oraz odchyleniem standardowym $ \sigma_r$ , czyli funkcję gęstości można zapisać w postaci:
$ f(R)=\cfrac{1}{\sigma_r \sqrt2\pi}\cdot exp \left[-\cfrac{1}{2}\left(\cfrac{R – \mu_r}{\sigma_r}\right)^2\right]$
Z punktu widzenia wytrzymałościowego istotne jest pole przekroju zbrojenia
$A(R) = \pi R^2$,
które jest nieliniową funkcją losowego promienia $R$. W formułach ($\ref{16}$). w miejsce funkcji $\Theta(X) , będziemy podstawiać A(R).
Do wyznaczenia momentów losowych funkcji $A(R) $ : wartości średniej $ \mu_A$ oraz odchylenia standardowego $\sigma_A$ zastosujemy najpierw ścisłe formuły ($\ref{14}$), ($\ref{16}$).
($\ref{14}$) $\to$ $ \mu_A=\int \limits _{-\infty}^{\infty}\pi r^2 f(r) dr=\pi \cfrac {1}{\sigma \sqrt{2\pi}} \quad \int \limits _{-\infty}^\infty r^2\cdot exp \left[-\cfrac{1}{2} \left( \cfrac {r-\mu_r}{\sigma_r}\right)^2 \right]dr$
Ostatnia całka wraz z mnożnikiem $ \pi \cfrac{1}{\sigma_r \sqrt{2 \pi}}$ z definicji jest momentem drugiego rzędu losowej wielkości R, który oczywiście jest równy $r_o^2+\sigma_r^2$. Stąd otrzymujemy:
$\mu_A= \pi (r_o^2+\sigma_r^2)$
($\ref{16}$) $\to$ $ Var[A] = \sigma^2_A = \pi^2\cfrac{1}{\sigma_r \sqrt{2 \pi}} \int \limits_{-\infty}^\infty (r^2 – r_o^2 – \sigma_r^2)^2 \cdot exp -\left( \cfrac {r – r_0 }{\sigma_r}\right)^2 dr$
Po obliczeniu tej całki, otrzymamy:
$\sigma^2_A = 2 \cdot \pi^2 \sigma_r^2 \cdot (2 \cdot r_0^2 +\sigma_r^2) $
Linearyzacja zadania
Dla powyższego zadania, w którym ściśle obliczono wartość oczekiwaną i odchylenie standardowe pola przekroju pręta, oszacujemy te parametry w sposób przybliżony poprzez linearyzację funkcji
$A(r) = \pi r^2$ w otoczeniu wartości średniej promienia pręta $= r_0=\mu_r$.
Z rozwinięcia ($\ref{42}$) funkcji $A(r) w szereg Taylora po zachowaniu członów liniowych otrzymujemy liniową aproksymację w otoczeniu
$A(r) \approx A(r_o) + \cfrac{\partial A(r)}{\partial r}|_{r=r_0} = \pi \cdot r_o^2 + 2\cdot \pi \cdot r = \pi\ (r_0^2 +2\cdot r)$
skąd:
$ \mu_A\approx A (\mu_r)=A (r_0)=\pi {r^2}_0 $
$ {\sigma^2}_A = 4 \pi {r^2}_0 {\sigma^2}_r$
Porównując formuły przybliżone ze ścisłymi , widzimy, że wynik przybliżony jest dobry jeśli tylko $\sigma_r \ll r_0$, to jest jeśli odchylenie standardowe jest małe w stosunku do wartości oczekiwanej. Na przykład przy $V_r=\cfrac{\sigma_r}{\mu_r}= 10 \%$ , błąd oszacowania wartości oczekiwanej wynosi 1%, a odchylenia standardowego 0,5%.
Przykład 2 [Kowariancja zmiennych losowych $X$ i $Y$ związanych zależnością funkcyjną ]
Znależć korelację statystyczna pomiędzy dwoma zmiennymi losowymi #X i $Y związanymi zależnością funkcyjną
$Y=X^2$.
Obie zmienne mają równomierne rozkłady prawdopodobieństwa.
W przypadku równomiernego rozkładu $X$ w przedziale (-a,a) kowariancja zmiennych $X$ i $Y$ jest równa ($\ref{20}$) :
$Cov \{X,Y\}= \int \limits_{-a}^a \cfrac{x(x^2-\mu_x)} {2}dx=0$
Wobec tego współczynnik korelacji ($\ref{20}$) wynosi
$\rho_{xy}= \cfrac{Cov \{X,Y\}}{\sigma_x \sigma_y}=0$,
gdzie: $\sigma_x=\sqrt{Var X}$, $\sigma_y=\sqrt{Var Y}$ – odchylenia standardowe zmiennej $X$ i $Y$ odpowiednio.
Z powyższej własności wynika , że zmienne $X$ i $Y$ są nieskorelowane, mimo silnego związku funkcyjnego. Zachodzi tak, ponieważ bo ich rozkład łączny jest symetryczny
Przykład 3 [ Momenty losowej funkcji. Ugięcie wspornikowej belki Timoshenko o losowej długości L ]
Wyznaczymy momenty losowego ugięcie $f$ końca wspornikowej belki Timoshenko (z uwzględnieniem sztywności postaciowej) o losowej długości $L$ i innych parametrach nielosowych, w tym o nielosowej sztywności giętnej $EI$ oraz postaciowej $S_v$.
Przemieszczenie $f$ końca wspornika (pod siłą P) można wyznaczyć ze znanej zależności (np artykuł autora):
$f =\int \limits_0^L \left( \cfrac{M \overline M}{EI} + \cfrac{V \overline V}{S_v} \right ) dx$

Rys. P1-1 . Wykresy sił do wyznaczenia ugięcia wspornika Yimoshemko
Po „przemnożeniu wykresów sił”,pokazanych na rys.P1-1, otrzymujemy formułę na ugięcie $f$, które jest funkcją losowego argumentu $L$:
$Y=\cfrac {PL^3}{3EI} +\cfrac{PL}{S_v}= \cfrac{P }{3 EI}( L^3+ 3 k\cdot L)$
gdzie współczynnik podatności na ścinanie $k = \cfrac{EI}{S_v} $.
Parametry losowej długości belki
Przyjmijmy, że losowa długość pręta X=L ma jednostajny rozkład prawdopodobieństwa z gęstością prawdopodobieństwa:
$\cfrac{1}{2\cdot \Delta L}$ w przedziale $(L-\Delta L ; L+\Delta L)$, a poza tym przedziałem jest równa zero.
Rozkład ten pokazano na rys. 1. Tak przyjęty rozkład oznacza, że w przedziale możliwych wartości długości belki $L \pm \Delta L$, gdzie $\Delta L$ jest dopuszczalną tolerancją może przyjąć każdą wartość z tym samym prawdopodobieństwem
$p= Pr\{X=x\}= \cfrac{1}{2 \Delta L}$,
a kontrolę jakości wyklucza wartości spoza tego przedziału.

Rus. P1-2 Rozkład równomierny losowej długości belki
Z własności rozkładu jednostajnego, wynika że wartość oczekiwana długości belki wynosi
$\mu_L= \cfrac{(L-\Delta L)+(L+\Delta L)}{2}=L$,
a wariancja
$Var L= \cfrac{[(L- \Delta L)-(L+ \Delta L)]^2}{10}= \cfrac {\Delta^2 L} {9}$.
Ścisłe momenty statystyczne ugięcia wspornika Timoshenko
Wartość oczekiwana ugięcia belki obliczona ze znanej gęstości prawdopodobieństwa wynosi:
$\mu_f= C \cdot p \int \limits_{L- \Delta}^{L+ \Delta}\ (x^3 + 3k x) dx= C L (L^2 +\Delta^2 +3k)$
gdzie wprowadzono oznaczenia:
$\Delta=\Delta L$ ; $C=\cfrac{P}{3 EI}$ ; $p=\cfrac{1}{2 \Delta}$
Wariancja \$ref{A2}$) ugięcia $f$ wynosi:
$ Var f = C^2 p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x)^2 dx = C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +3k^2 +\cfrac{6k}{11} (5 L^2 +\Delta^2) +\cfrac{\Delta^4}{23} \right) $
Dla długości belki wykonanej bez odchyłki wymiarowej $\Delta=0$ wariancja jest zerowa.
Kowariancja i współczynnik korelacji ugięcia f z losową długością L wynosi:
$Cov _{f L}= C p \int \limits_{L- \Delta}^{L+ \Delta}(x^3 + 3k x) \cdot (x-L) dx = C \Delta^2 \left ( L^2+k+\cfrac {\Delta^2}{11} \right)$
$\rho_{f L}=\cfrac{L^2+k +\cfrac{\Delta^2}{11}} {\sqrt{ (k+L^2)^2+ \cfrac {12}{130} (3k+5 L^2)\Delta^2 +\cfrac{\Delta^4}{20}}}$
Dla $\Delta=0$ korelacja jest pełna ($\rho_{f L}=1$).
Ścisłe momenty statystyczne ugięcia wspornika Bernoulligo
Dla $k=0$ (dla klasycznej belki Bernoulliego) powyższe formuły upraszczają się do postaci :
$\mu_f= C L (L^2 +\Delta^2)$,
$ Var f == C^2 \Delta^2 \left ( 3L^4 +2L^2 \Delta^2 +\cfrac{\Delta^4}{23} \right) $,
$ Cov \{ f, L \}=C \Delta^2 \left ( L^2\cfrac {\Delta^2}{11} \right) $,
$\rho_{fL}=\cfrac{L^2+\cfrac{\Delta^2}{11}} {\sqrt{ L^4+ \cfrac {12}{20}\Delta^2L^2 +\cfrac{\Delta^4}{20}}}$
Porównując (14) z funkcją (13) widzimy zgodność zapisu dla $\Delta=0 $, to znaczy dla długości belki wykonanej bez odchyłki wymiarowej. Do porównania wrócimy jeszcze podczas omawiania metody linearyzacji.
Ugięcie wspornikowej belki Timoshenko o losowej długości L. Metoda linearyzacji
Pochodna cząstkowa funkcji $f(x)$ (12) przy oznaczeniu $x=L$ wynosi:
$ Y(x)^{’}= \cfrac {\partial Y (x)}{\partial x}= 3C ( x^2+k)$
a zlinearyzwne momenty statystyczne wynoszą
$ \tilde {\mu_f}= \varphi(\mu_x)=3C(L^2+k) $,
$ tilde {Var f} = |\varphi^{’} (\mu_x)|^2 \cdot \sigma_x^2=|\varphi^{’} (L)|^2 \cdot \sigma_L^2=C^2 \Delta^4(k+L^2)^2$
Porównując powyższe oszacowania z wartościami ścisłymi otrzymujemy:
$ \cfrac {\mu_Y} {\tilde{\mu_Y}}=1+ \cfrac {\Delta^2} {L^2+3k}
\cfrac {Var Y} {\tilde{Var Y}}=1+….
W prezentowanym przykładzie dla $k=0$ (belka Bernoulliego) i dla spotykanego w praktyce $\cfrac {\Delta}{L} \approx 3 \%$ błąd oszacowania średniej i wariancji jest zaniedbywalny.
Przykład 4 [Bezpieczeństwa pręta żelbetowego zaprojektowanego wg Eurokod 2]I.
Sprawdzić bezpieczeństwo rozciąganego pręta żelbetowego o długości $L=6 m$. Zbrojenie pręta zaprojektowano zgodnie z normą wariantowo:
A z 4-ch prętów, B z 8-miu prętów (o mniejszych średnicach). W zadaniu nie są istotne konkretne średnice prętów, ale stwierdzenie, że w każdym przypadku spełniono wymagania normowe, czyli projekt wykonano dla wymaganego przez normę PN-EN 1990 wskaźnika niezawodności
$\beta_{global}=3,8 $.
Dane
Granica plastyczności prętów zbrojeniowych jest oznaczana na próbkach długości
$L^*=30 cm$
jako kwantyl 5%, czyli prawdopodobieństwo zniszczenia próbki wynosi
$p_{si}=0,95$
Pręt jest zbrojony prętami w liczbie
Wariant A: $m_A=4$ ;
Wariant B: $m_B=8$,
Wyniki
Wymagana niezawodność pręta
mierzona prawdopodobieństwem zniszczenia, wynosi
$p_s=\Phi(-\beta_{global})=\Phi(-3,8)=0,999927652$
Ustalenie typu systemu niezawodnościowego
Każdy z prętów zbrojeniowych jest złożony z $n=\cfrac {L} {L^*}=\cfrac {600}{99}=20$ elementów połączonych szeregowo.
Pręt żelbetowy jest strukturą z ogólnym rezerwowaniem, której model pokazano na rys. 7 i którą opisuje wzór ($\ref{97}$)
Ze wzoru ($\ref{97}$) obliczamy niezawodności systemu w poszczególnych wariantach liczby prętów:
Wariant A: $p_s = 1 – (1- 0,95^{96})^4=0,831$
Wariant B: $p_s = 1 – (1- 0,95^{96})^8=0,971$,
czyli w obu wariantach o kilka rzędów za małe od wymaganego $\beta = 3,8$, czyli
($\ref{1}$) $\to$ $p_s =1 -p_f = 1 – \Phi(-\beta) = 1 – 1 – \Phi(-3,8)= 1- 0,000072348 = 0,999927652$
Zbrojenie prętami o mniejszej średnicy, ale większej liczbie w wiązce zwiększa niezawodność systemu. W przykładzie uzyskaliśmy wzrost niezawodności mierzonej prawdopodobieństwem przeżycia o ok. 17%.
W celu uzyskania wymaganej niezawodności pręta- niezawodność elementów (odcinków zbrojenia) dla bardziej korzystnego wariantu B można wyznaczyć z równania:
$0,999927652=1-(1-p_{si}^{96})^8$.
Z rozwiązania tego równania uzyskano
$p_{si}=0,982$,
co daje współczynnik tolerancji ok. 2,10, a nie 1,64 jak dla normowego kwantyla 5% charakterystycznej wytrzymałości (granicy plastyczności) stali.
W w celu utrzymania niezawodności pręta na wymaganym poziomie przez normę PN-EN 1990 należałoby istotnie zwiększyć nośność prętów zbrojeniowych poprzez zwiększenie ich przekroju lub klasy stali. Wymiarowanie pręta z warunku
$\beta \le 3,8$
nie jest przedmiotem niniejszego przykładu, ale prowadzone wyliczenia pokazały ważną okoliczność:
Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i to również wówczas, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa.
Niestety w europejskich normach projektowania nie uwzględnia się pokazanych wyżej mechanizmów niezawodnościowych.
Przykład 5 [ Normalizacja analityczna zmiennej normalnych, lognormalnej, Weibulla max i Gumbela min ]
Celem normalizacji jest sprowadzenie każdej zmiennej $X_i$ do zmiennej $Z_i \sim \mathcal{N}(0,1)$ przy zachowaniu równoważności probabilistycznej, tj. zachowaniu kwantyli.
Normalizacja zmiennej o rozkładzie normalnym
W tym szczególnym przypadku normalizacja pokrywa się algebraicznie ze standaryzacją, ale jest to wyjątek, a nie regułą ( p. formuły)
Normalizacja zmiennej o rozkładzie log-normalnym
Rozkład log-normalnym $\mathcal{L}$, stosowany jest do opisu zmiennych losowych przyjmujących wyłącznie wartości dodatnie (np. obciążenia grawitacyjne, natężenia oddziaływań).
Zmienna $X$ ma rozkład log-normalny, jeśli jej logarytm naturalny ma rozkład normalny $ \ln X = Y \sim \mathcal N \left( \mu_{\mathcal L,X},\sigma_{\mathcal L,X}^2 \right) $.
Gęstość tego rozkładu wynosi $ f_X(x)=\cfrac{1}{x\sigma_{\mathcal L, X} \sqrt{2\pi}} \exp { \left[-\frac{(\ln x-\mu_{\mathcal L,X}^2}{2\sigma_{\mathcal L,X}^2}\right]}, \quad x>0 $,
a dystrybuanta $ F_X(x)=\Phi \left(\cfrac{\ln x-\mu_{\mathcal L}}{\sigma_{\mathcal L}}\right) $
Wartość oczekiwana $\mathcal E[X]$ oraz wariancja $Var [X]$ rozkładu log-normalnego wyznaczone ściśle z całkowania gęstości rozkładu wynoszą ( p. też tab.2 ):
$ \mathcal E [X] = \mu_X = \exp {\left (\mu_{\mathcal L,X}+\sigma^2_{\mathcal L, X}/2\right)}$
$ Var[X] = \sigma^2_X = \exp {2 \cdot \mu_{\mathcal L, X}+\sigma^2_{\mathcal L, X}} \cdot \left ( \exp {\sigma^2_{\mathcal L, X}} – 1 \right ) $
gdzie $\\mu_{\mathcal L , X} $, $\sigma_{\mathcal L, X}$ parametry rozkładu log-normalnej zmiennej X .
Po podstawieniu wyrażenia na dystrybuantę rozkładu $ \Phi(z)=\Phi \left( \cfrac{ \ln x-\mu_{\mathcal L,X}} {\sigma_{\mathcal L,X}}\right) $ , otrzymujemy formułę normalizacji:
$ \mathcal {L} \to \mathcal {N} : \quad z = \cfrac{ \ln x- \mu_{\mathcal L,X} }{\sigma_{\mathcal L,X}} $
i transformację odwrotną
$ \mathcal {N} \to \mathcal {L}: \quad x=\exp(\mu_{\mathcal L,X} +\sigma_L u) $
Po podstawieniu estymatorów wartości oczekiwanej i odchylenia standardowego, uzyskane z wartości znanych parametrów z prób: $\mu_x= m_X$, \, $\sigma_X = s_X$, uzyskujemy wyrażenia na parametry rozkładu log-normalnego,
[\ \begin{equation} \sigma_{\mathcal L, X }= \sqrt{ \ln { \left [1+ (s_X/ m_X)^2 \right] } } = \sqrt{ \ln { \left [1+ v_X^2 \right] } } \]
[\ \mu_{\mathcal L, X} = \ln {\left ( m_X^2 / \sqrt{m_X^2 + s_X^2} \right)}= \ln {\left ( m_X / \sqrt{1+v_X^2 } \right)}= ln (m_X) – \cfrac{\sigma_{\mathcal L }^2}{2} \]
Można sprawdzić, że uzyskane formuły ) są zgodne z zależnościami podanymi w tab.6, dla rozkładu log-normalnego.
Jeżeli zmienna $X_i$ ma rozkład lognormalny, tj. $\ln X_i \sim \mathcal{N}(\mu_{L,i},\sigma_{L,i}^2)$, to dystrybuanta $X_i$ ma postać: $F_{X_i}(x)=\Phi!\left(\dfrac{\ln x-\mu_{L,i}}{\sigma_{L,i}}\right)$.
Transformacja normalizująca przyjmuje więc postać: $Z_i = \Phi^{-1}!\left(\Phi!\left(\dfrac{\ln X_i-\mu_{L,i}}{\sigma_{L,i}}\right)\right) = \dfrac{\ln X_i-\mu_{L,i}}{\sigma_{L,i}}$.
Normalizacja zmiennej o rozkładzie Gumbela (max)
Jeżeli zmienna $X_i$ (np. obciążenie śniegiem) ma rozkład Gumbela typu maksimów: $F_{X_i}(x)=\exp!\left[-\exp!\left(-\dfrac{x-\alpha_i}{\beta_i}\right)\right]$,
to transformacja normalizująca ma postać: $Z_i = \Phi^{-1}!\left(\exp!\left[-\exp!\left(-\dfrac{X_i-\alpha_i}{\beta_i}\right)\right]\right)$.
Jest to ściśle monotoniczna transformacja nieliniowa, która: zachowuje kwantyle ; eliminuje asymetrię rozkładu; sprowadza zmienną do przestrzeni Gaussa.
Normalizacja zmiennej o rozkładzie Weibulla (min)
Jeżeli zmienna $X_i$ ma rozkład Weibulla typu minimów: $F_{X_i}(x)=1-\exp!\left[-\left(\dfrac{x}{\lambda_i}\right)^{k_i}\right]$, to normalizacja ma postać:
$Z_i = \Phi^{-1}!\left(1-\exp!\left[-\left(\dfrac{X_i}{\lambda_i}\right)^{k_i}\right]\right)$.
Transformacja ta jest szczególnie istotna dla zmiennych opisujących: degradację, trwałość, właściwości kontrolowane przez „najsłabszy element”.
Po tej transformacji zachodzi: $\mathbb{E}[Z_i] = 0$ , $\mathrm{Var}(Z_i) = 1$
Przykład 6 [Dekorelacja wektora metodą Pugachev oraz Cholesky ]
Przeprowadzić dekolerację wektora $\mathbf{X}$ dla którego:
wartość oczekiwana $\mu_X= 0$
wektor wariancji, $Var \mathbf{X} = \sigma_x^2 = \begin {bmatrix} 400 & 35 & 100 & 9 \end{bmatrix}^T $
macierz korelacji $\rho _{xx} = \begin{bmatrix} 1 & 0,5 & 0,1 & 0,2\\ & 1 & 0,4 & 0,2\\ & & 1 & 0,5\\ SYM & & & 1 \end{bmatrix}. $
czyli macierz kowariancji
$C_{xx} =\mathbf{C}_{xx}= Var \mathbf{X}\rho _{xx} = \begin{bmatrix} 400 & 50 & 20 & 12\\ 50 & 25 & 20 & 13\\ 20 & 20 & 100 & 9\\ 12 & 13 & 9 & 9 \end{bmatrix} $
Algorytm Pugacheva
Procedura iteracyjna ($\ref{54}$) – ($\ref{55}$) jest prowadzona następująco
Iteracja k = 1
$d_1 = c_{11} = 400$,
$a_{12} = 50 / 400 = 0.125$,
$a_{13} = 20 / 400 = 0.05$,
$a_{14} = 12 / 400 = 0.03$
Iteracja k = 2
$d_2 = 25 – 400·(0.125)^2 = 25 – 6.25 = 18.75$,
$a_{23} = (20 – 400·0.125·0.05)/18.75 = (20 – 2.5)/18.75 = 0.933333$,
$a_{24} = (13 – 400·0.125·0.03)/18.75 = (13 – 1.5)/18.75 = 0.613333$
Iteracja k = 3
$d_3 = 100 – 400·(0.05)^2 – 18.75·(0.933333)^2 = 82.666667$,
$a_{34} = (9 – 400·0.05·0.03 – 18.75·0.933333·0.613333)/82.666667 = – 0.02823$
Iteracja k = 4
$d_4 = 9 – 400·(0.03)^2 – 18.75·(0.613333)^2 – 82.666667·(-0.02823)^2 = 9 – 0.36 – 7.05 – 0.066 = 1.524$.
Wyniki końcowe:
$\mathbf{A}= [a_{ij}] = \begin {bmatrix} 1 & 0 & 0 & 0 \\ 0,125 & 1 & 0 & 0\\ 0,05 & 0,93333 & 1 & 0 \\ 0,03 & 0,6133 & -0,02823 & 1 \end{bmatrix} $
$C_{uu}= diag [ 400, \, 18,75,\, 82,6667,\,1,5208]$
Algorytm Cholesky
Procedura iteracyjna ($\ref{58}$) – ($\ref{59}$) jest prowadzona następująco
Iteracja $k=1$
$l_{11}=\sqrt{400}=20$
$l_{21}=50/20=2{,}5$
$l_{31}=20/20=1$
$l_{41}=12/20=0{,}6$
Iteracja $k=2$
$l_{22}=\sqrt{25-2{,}5^2}=\sqrt{18{,}75}=4{,}3301$
$l_{32}=(20-2{,}5\cdot1)/4{,}3301=4{,}0415$
$l_{42}=(13-2{,}5\cdot0{,}6)/4{,}3301=2{,}655$
Iteracja $k=3$
$l_{33}=\sqrt{100-1^2-4{,}0415^2}=9{,}092$
$l_{43}=(9-1\cdot0{,}6-4{,}0415\cdot2{,}655)/9{,}092=-0{,}257$
Iteracja $k=4$
$l_{44}=\sqrt{9-0{,}6^2-2{,}655^2-(-0{,}257)^2}=1{,}235$
Macierz dolnotrójkątna Cholesky’ego ma postać
$\mathbf{L}=\begin{bmatrix}
20 & 0 & 0 & 0\\
2{,}5 & 4{,}3301 & 0 & 0\\
1 & 4{,}0415 & 9{,}092 & 0\\
0{,}6 & 2{,}655 & -0{,}257 & 1{,}235
\end{bmatrix}$
$\mathbfC_{uu}=\mathbfI}$.
Wnioski:
1) Algorytm Pugaczowa i dekompozycja Cholesky’ego prowadzą do różnych reprezentacji tej samej macierzy kowariancji.
2) W metodzie Pugaczowa macierz $\mathbf{C}_{uu}$ zachowuje fizyczną informację o „pozostałych” wariancjach w kolejnych kierunkach przestrzeni losowej, co umożliwia identyfikację zaniku informacji losowej (małe lub zerowe $d_k$).
3) W dekompozycji Cholesky’ego informacja fizyczna jest całkowicie zawarta w macierzy L, natomiast wektor U ma zawsze jednostkową macierz kowariancji
$\mathbfC_{uu}=\mathbfI}$.
4) Metoda Cholesky’ego jest numerycznie bardzo stabilna i efektywna, lecz „ukrywa” strukturę informacyjną problemu, która w algorytmie Pugaczowa pozostaje jawna i interpretowalna. Z punktu widzenia analizy dynamicznej przewagę ma metoda Pugaczowa, natomiast przy wielokrotnych transformacjach w czasie bardziej efektywna obliczeniowo jest metoda Cholesky’ego.
Przykład 7 [ Porównanie metod FORM, SORM i MC dla silne nieliniowego problemu ]
Oszacować prawdopodobieństwo zniszczenia $p_f= Pr ( R – E <0)$ oraz indeks niezawodności $\beta$ dla danych podanych niżej .
Przyjąc, że zmienne R i G nie są skorelowane: $ Cov (R, \quad E) =0 $
Dane
Analiza pomiarów empirycznych o liczebności w $N$ wytrzymałości pewnej konstrukcji $R$ oraz jej obciążenia $F$ wykazała, że parametry z próby wyznaczone z zależności ($\ref{91}$) wyniosły
dla wytrzymałości (X=R): $m_R= 100$; $s_R= 10$
dla obciążeń (X=E): $m_E= 80$; $s_E= 20$
Po przeprowadzeniu testów statystycznych stwierdzono też, że:
R ma rozkład normalny $\mathcal N (\mu_N,\, \sigma_N)$ , gdzie można przyjąć: $\mu_N \approx m_R= 100$, $\sigma_N \approx s_R= 10$
E ma rozkład log-normalny $\mathcal L (\mu_L , \, \sigma_L)$, dla którego parametry wyznaczono niżej z zależności ($\ref{88}$), dla (X=E): $m_E= 80$; $s_E= 20$ , $v_E =\cfrac{1}{88}=0,25$ i stąd
($\ref{96}$) $ \to \mu_{\mathcal L } = \ln {\left (80 / \sqrt{1+ 0,25^2} \right)}= 4,352$
($\ref{95}$) $ \to \sigma_{\mathcal L }= \sqrt{ \ln { \left [1+ 0,25^2 \right] } } =0,246$.
Ponieważ zmienne $R$ i $E$ z założenia (w przykładzie) nie są skorelowane, więc nie trzeba przeprowadzać ich dekorelacji.
Metoda FORM w odmianie Rackwitz –Fiessler (RF)
Transformacja funkcji granicznej do przestrzeni $U$
Oryginalną funkcję graniczną $g(R, \, E) = R – E $
przekształcimy do U-przestrzeni, uwzględniając zależności dla rozkładu normalnego $R$:
$R = \mu_R + \sigma_R \cdot U_R$,
tego, że $ ln {E} $ jest rozłożony normalnie:
$ ln {E} = \mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E$, czyli
$ E= exp{ \mu_{\mathcal L} +\sigma_{\mathcal L}\cdot U_E}$.
Stąd funkcja graniczna w U-przestrzeni przyjmuje postać
$g(U_R, \, U_E) = R – E = \mu_R + \sigma_R\cdot U_R – \exp{(\mu_{\mathcal L} +\sigma_{\mathcal L} \cdot U_E) }$
Powierzchnia graniczna g(…) jest liniową funkcją zmiennej $U_R$ i nieliniową zmiennej $U_E$
Gradient funkcji granicznej $\nabla g$
Składowe gradientu powierzchni granicznej ($\ref{65}$) wynoszą:
$ \cfrac{\partial g()}{\partial U_R}= \sigma_R$
$ \cfrac{\partial g()}{\partial U_E}= – \sigma_{\mathcal L} \cdot \exp{( \mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }$
Wektor gradientu $\nabla g()$ ($\ref{65}$) , ($\ref{66}$) wynosi
$ \nabla g(U_R, U_E)= \begin{bmatrix} \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) } \end{bmatrix}$
Norma gradientu (długość wektora) wynosi
$\parallel \nabla g (U_R, U_E) \parallel = \sqrt{ \left( \cfrac{\partial g}{\partial U_R}\right)^2+ \left( \cfrac{\partial g}{\partial U_E}\right)^2} = \sqrt{ \sigma_R^2 +[ \sigma_{\mathcal L}\cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) }]^2} $
Wektor kierunkowy gradientu (normalnej do powierzchni granicznej) wynosi:
$ \alpha (U) =\cfrac{1}{\parallel \nabla g (U_R, U_E) \parallel} \cdot \nabla g(U_R, U_E)= \begin{bmatrix} \sigma_R\\ – \sigma_{\mathcal L} \cdot \exp { (\mu_{\mathcal L}+\sigma_{\mathcal L} \cdot U_E) } \end{bmatrix}$
W punkcie NPP wektor kierunkowy wynosi $\alpha^* = \alpha(U_E^*, U_E*)$
W metodzie FORM gradient $\nabla g(U)$ określa kierunek „najbardziej stromego wzrostu” funkcji granicznej, norma gradientu jest potrzebna do wyznaczenia wektora jednostkowego normalnego $\alpha$, oraz aktualizacji iteracji podczas poszukiwania punktu NPP.
Rozwiązanie problemu optymalizacyjnego do znalezienia NPP (punktu projektowego)
Punkt NPP wyznacza dominujący kierunek awarii i znajduje się przez rozwiązanie problemu optymalizacyjnego
$ \min \limits_{U=(U_R, U_E)} \cfrac{1}{2} \mathbf{U}^T\mathbf{U} $
czyli problemu
minimalizuj $\cfrac{1}{2}\parallel U \parallel^2$ przy ograniczeniu g(U)=0.
Zadanie rozwiązujemy metodą mnożników Lagrange’a $ w algorytmie iteracji ($\ref{110}$), której krok numeryczny (przy iteracji „k-tej”) w naszego przypadku przyjmuje postać:
1 oblicz $g\big(U^{(k)}\big)=\mu_R+\sigma_R U_R^{(k)}-\exp(\mu_L+\sigma_L U_E^{(k)})$,
2. oblicz gradient $\nabla g\big(U^{(k)}\big)$ i jego normę $|\nabla g\big(U^{(k)}\big)|$ (wzory powyżej).
3. oblicz $\alpha^{(k)}=\nabla g(U^{(k)})/|\nabla g(U^{(k)})|$ (wzory powyżej).,
4. zaktualizuj $ U^{(k+1)}$ (wzór wyżej).
5. sprobwdź kryteria zbieżności, np $|| U^{(k+1)} – U^{(k)} , \varepsilon _U$ oraz $| g (U^{(k+1)}) < \varepsilon_g$
Po osiągnięciu zbieżności otrzymujemy:
współrzędne punku LPP $ U^*=(U_R^*, U_E^*) = (0.501556, \,-1.897177)$.
indeks niezawodności $\beta = || U^* || = \sqrt{ U_R^{*2}+U_E^{*2}} = 1,962355$,
prawdopodobieństwo awarii $p_f \approx\Phi^{-1}(\beta) = p_f =2,486×10^{-2}
Dodatkowo uzyskano:
wektor normalny (importance factors): $α^* = (α_R^* , \, α_E^*) = (0.640881, \, -0.767640)$,
punkt projektowy w oryginalnym układzie:
$R^* = μ_R +σ_R U_R^* = 105,015561$,
$E^*=exp (μ_L+σ_L U_E^*)=48,647000=2,486×10^{-2}$
Komentarz:
w klasycznym FORM przy zbieżnym NPP oczekujemy $g(U^*)\approx 0$. W przedstawionym przebiegu iteracji wartość $g(U^)$ wyszła dodatnia i stosunkowo duża, co wynika to z prostego sposobu aktualizacji RF zastosowanego w przykładzie (bez dodatkowych modyfikacji/relaksacji) oraz z faktu, że funkcja zawiera silną nieliniowość (wykładnik). W praktyce należy: 2) oprobcować kryteria zbieżności (monitorować zarówno zmianę $U$ jak i $g$), 2) zastosować relaksację iteracji lub wariant HL–RF / Newtona, aby wymusić $g(U^*)\to 0$ dokładniej, 3) lub użyć algorytmu minimalizującego $|U|^2/2$ z ograniczeniem $g(U)=0$ (np. metoda optymalizacji z ograniczeniami ), co daje ścisłe spełnienie ograniczenia.
Metoda Hasofer-Lind-Rackwitz-Fiessler (HLRF)
Algorytm iteracyjny HLRF jest podstawą większości praktycznych implementacji FORM (w tym programów komercyjnych) i jest ulepszeniem oryginalnego algorytmu Hasofer-Lind (HL) zawierający oryginalną oryginalna definicja punktu najbardziej prawdopodobnego (NPP) w przestrzeni znormalizowanej.
Metoda HLRF : operuje w przestrzeni standardowej normalnej, iteracyjnie znajduje punkt projektowy β, nie wymagają jawnej transformacji nieliniowych rozkładów w każdym kroku,
jest stabilniejsza numerycznie niż czyste R-F przy silnie skośnych zmiennych
Klasyczna definicja indeksu Hasofera–Lind to rozwiązanie problemu
$\beta=({\min_U})||U||^T ||U|| \text { z warunkiem } g(U)=0$.
Można to sprowadzić do jednowymiarowego problemu: z warunku $g(U_1,U_2)=0$ wyznaczamy $U_2$ jako funkcję $U_1$:
$ U_2 (U_1) = \cfrac{ \ln {(m_R + s_R \cdot U_1) – \mu_{mathcal L}} {\sigma_{mathcal L}}$
z warunkiem $ m_R + s_R U_1 > 0$
gdzie zastosowano oznaczenia jak dla metody RF
Następnie minimalizujemy funkcję
$f(U_1) =\sqrt{U_1^2 + [ U_2(U_1)]^2}$
Dla przyjętych danych minimalizacja jednowymiarowa prowadzi do następującego procesu iteracyjnego

Rys. Iteracje w metodzie HLRF
Po kilkunastu iteracjach otrzymujemy punkt projektowy, indeks $\beta$ i prawdopodobieństwo zniszczenia $p_f$:
$U_{HLRF}^* \approx (-0,88889861, \, 1,11864231)$,
$\beta_{HLRF} \approx 1,4288111690$,
$p_{f, HLRF} \approx \Phi (−1,4288111690)\approx 0,07653$.
Przykład 8 [ Niezawodność belki z dwoma mechanizmami zniszczenia. Metoda FORM HL
Wyznaczyć niezawodność belki metodą FORM w ujęciu Hasofera–Linda (HL), osobno dla dwóch mechanizmów zniszczenia M1 i M2, zdefiniowanych niżej
z identyfikacją punktu najbardziej prawdopodobnego zniszczenia i z określeniem współczynników niezawodności $\beta_{HL}$.
Rozpatruje się swobodnie podpartą belkę stalową o nominalnej rozpiętości $L = 6{,}0\ \mathrm{m}$.
Odchyłkę rozstawu podpór przyjmuje się zgodnie z klasą wykonania EXC2: $\Delta L = \pm 10\ \mathrm{mm}$.
Belka wykonana jest z dwuteownika IPE 240 (oś główna zginania y-y o nominalnych charakterystykach geometrycznych:
$A = 39{,}1\ \mathrm{cm^2}$,
$I_y = 3892\ \mathrm{cm^4}$,
$W_{pl,y} = 366{,}6\ \mathrm{cm^3}$,
$m = 30{,}7\ \mathrm{kg/m}$.
Odchyłki hutnicze przyjmuje się jako losowe: pole przekroju i masa $\pm 4\%$, moment bezwładności $\pm 5\%$.
Belka wykonana jest ze stali konstrukcyjnej S235:
$f_y = 235\ \mathrm{MPa}$,
$E = 210\ \mathrm{GPa}$.
Współczynnik zmienności parametrów materiałowych z próby: $V_m = 5\%$.
Belka obciążona jest ciężarem:
własnym: $\dfrac{30{,}7 \cdot 9{,}81}{1000} = 0{,}301\ \mathrm{kN/m}$
pokrycia $0{,}4\ \mathrm{kN/m^2}$,
sufitu podwieszonego $0{,}4\ \mathrm{kN/m^2}$,
podwieszonych instalacji $0{,}5\ \mathrm{kN/m^2}$, w przykładzie dla uproszczenia zaliczono do stałych
obciążeniem śniegiem
Szerokość pasa zbierania obciążeń powierzchniowych z dachu na belkę $a = 6{,}0\ \mathrm{m}$.
Łączne obciążenie stałe: $G = 0{,}301 + 6 \cdot (0{,}4 + 0{,}3 + 0,2) = 5{,}7\ \mathrm{kN/m}$|
Współczynnik zmienności $v_G = 7$ %.
Śnieg (wariant nominalny)
Strefa II, PN-EN 1991-1-3: $s_k = 0{,}9\ \mathrm{kN/m^2}$, współczynnik kształtu dachy $\mu = 0{,}8$.
Liniowe obciążenie śniegiem: $S = 0{,}9 \cdot 0{,}8 \cdot 6{,}0 = 4{,}32\ \mathrm{kN/m}$
Współczynnik zmienności: $v_S = 15$%
Całkowite obciążenie: $ Q = G + S$.
Mechanizmy zniszczenia
M1 — nośność na zginanie:
$M_E \le M_R$,
gdzie $M_E = \dfrac{Q\,L^2}{8}$, $M_R = W_{pl,y}\,f_y$.
M2 — użytkowalność (ugięcie):
$f \le f_{dop}$,
gdzie $f = \dfrac{5}{384}\dfrac{Q\,L^4}{E I_y}$, $f_{dop} = \dfrac{L}{350}$.
Korelacja między zmiennymi
W analizowanym przykładzie belki stalowej zmienne losowe nie są niezależne w sensie probabilistycznym, nawet jeżeli zostały tak zadeklarowane na poziomie rozkładów brzegowych. Wynika to z faktu, że część zmiennych jest powiązana relacjami funkcyjnymi oraz wspólnym źródłem niepewności fizycznej.
Korelacje wynikające z relacji funkcyjnych
Zależność pomiędzy masą $m$ a obciążeniem stałym $G$.
Obciążenie stałe belki zapisano jako $G = m \cdot g + G_{pokrycie}$, gdzie $g$ jest przyspieszeniem ziemskim, a $G_{pokrycie}$ obejmuje pozostałe składniki obciążenia stałego.
Stąd $\mathrm{Corr}(m,G)\approx 1$, ponieważ dominującym składnikiem losowości $G$ jest losowość masy własnej belki.
Zależność pomiędzy długością $L$ a momentem zginającym $M_E$
Efekt oddziaływań zapisano jako: $M_E=\dfrac{(G+S)L^2}{8}$. Zmienna $L$ występuje w potędze drugiej, co powoduje silną korelację funkcyjną pomiędzy $L$ a efektem obciążenia.
W sensie lokalnym (linearyzacja Taylora ): $\dfrac{\partial M_E}{\partial L} \propto L$,
Stąd $\mathrm{Corr}(L,M_E)>0$. Zależność pomiędzy $A$, $I$ oraz $W_{pl}$
Charakterystyki geometryczne przekroju nie są niezależne. Dla dwuteownika: $I = I(A)$, $W_{pl} = W_{pl}(A)$.
Odchyłki hutnicze pola przekroju powodują jednoczesne odchylenia momentu bezwładności i wskaźnika wytrzymałości .
Przyjmujemy: $\mathrm{Corr}(A,I)\approx 0{,}9$, $\mathrm{Corr}(A,W_{pl})\approx 0{,}9$. Zależność pomiędzy $I$ a ugięciem $f$
Ugięcie belki zapisano jako $f=\dfrac{5}{384}\dfrac{(G+S)L^4}{EI}$.
Zmienna $I$ występuje w mianowniku, co oznacza silną ujemną korelację funkcyjną $\dfrac{\partial f}{\partial I}<0 \quad \Rightarrow \quad \mathrm{Corr}(I,f)<0$.
Brak korelacji fizycznej pomiędzy obciążeniem śniegiem $S$ a geometrią
Obciążenie śniegiem wynika z procesów klimatycznych i nie jest powiązane z wymiarami przekroju ani długością belki:
$\mathrm{Corr}(S,L)=\mathrm{Corr}(S,A)=\mathrm{Corr}(S,I)=0$.
Zależność pomiędzy $f_y$ i $A$
Nośność belki $M_R=W_{pl} f_y$.
Jeżeli przyjmujemy niezależność jakości stali i geometrii walcowania, to:
$\mathrm{Corr}(f_y,A)=0$.
Jeżeli natomiast uwzględnia się wspólne źródło jakości produkcji, można przyjąć słabą korelację dodatnią.
W przykładzie dydaktycznym przyjmujemy $\mathrm{Corr}(f_y,A)=0$.
Macierz korelacji zmiennych losowych – postać ogólna
Macierz korelacji $\boldsymbol{\rho}_{XX}$ przyjmujemy w postaci symetrycznej, z jedynkami na przekątnej oraz niezerowymi wyrazami wynikającymi z korelacji funkcyjnych:$\rho_{mG}=1$,
$\rho_{AI}=0{,}9$,
$\rho_{LW_{pl}}>0$,
$\rho_{If}<0$.
Pozostałe współczynniki korelacji przyjmujemy równe zero.
Tak skonstruowana macierz korelacji odzwierciedla tzw. korelację konstrukcyjną, która nie wynika bezpośrednio z danych statystycznych, lecz z mechaniki pracy konstrukcji i zależności funkcyjnych pomiędzy zmiennymi.
Zestawienie oryginalnych zmiennych losowych
Wektor zdefiniowanych zmiennych losowych zapiszemy w postaci:
$\mathbf{XO}=[L \, ; m \ , ; G \, ; S\, ; A \, ; I \, ; f_y \, ; E]$,
z następującymi parametrami
\[ \begin{array}{c|c|c|c|c}
\hline\text{Zmienna} & \text{Znaczenie} & \text{Rozkład} & \text{Wartość średnia} & v \\
\hline L & \text{Rozpiętość} & \mathcal{N} & 6{,}0\ \mathrm{m} & 0{,}17\% \\
m & \text{Masa belki} & \mathcal{N} & 88{,}3\ \mathrm{kg/m} & 4\% \\
G & \text{Obciążenie stałe} & \mathcal{N} & 3{,}5\ \mathrm{kN/m} & 7\% \\
S & \text{Obciążenie śniegiem} & \text{Gumbel max} & 3{,}6\ \mathrm{kN/m} & 15\% \\
A & \text{Pole przekroju} & \mathcal{LN} & 112{,}5\ \mathrm{cm^2} & 4\% \\
I & \text{Moment bezwładności} & \mathcal{LN} & 63\,100\ \mathrm{cm^4} & 5\% \\
f_y & \text{Granica plastyczności} & \mathcal{N} & 355\ \mathrm{MPa} & 5\% \\
E & \text{Moduł Younga} & \mathcal{N} & 210\ \mathrm{GPa} & 5\% \\
\hline \end{array} \]
oraz macierzą korelacji
$$ \boldsymbol{\rho}_{XO,XO} =\begin{bmatrix}
1 & 0 & 0 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1 & 0 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1 & 0{,}9 & 0{,}9 & 0 & 0 \\
0 & 0 & 0 & 0 & 0{,}9 & 1 & 0{,}9 & 0 & 0 \\
0 & 0 & 0 & 0 & 0{,}9 & 0{,}9 & 1 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0{,}2 \\
0 & 0 & 0 & 0 & 0 & 0 & 0 & 0{,}2 & 1
\end{bmatrix} $$
$[ L\, ,\, m\, ,\, G\, ,\, S_k\, ,\, A\, ,\, I_y\, ,\, W_y\, ,\, f_y\, ,\, E ]$
Zestawienie oryginalnych mechanizmów zniszczenia
\[\begin{array}{c|l|l}
\hline \text{Mechanizm} & \text{Opis} & \text{Funkcja graniczna} \\
\hline M1 & \text{Nośność na zginanie} & g_{M1}(\mathbf{X}) =\dfrac{f_y \, W_{pl}}{\gamma_M}- \dfrac{(G+S)\,L^2}{8}\\
M2 & \text{Ugięcie belki} & g_{M2}(\mathbf{X}) =\dfrac{L}{350}- \dfrac{5}{384}\dfrac{(G+S)\,L^4}{E I}\\
\hline\end{array}\]
Macierz $\boldsymbol{\rho}_{XO,XO}$ jest celowo osobliwa (rangowo zredukowana), → bo $m$ i $A$ są funkcyjnie powiązane .To jest poprawne fizycznie, ale FORM/HL nie powinien być wykonywany bezpośrednio na tym poziomie
W metodzie FORM HL korelacje te uwzględnia się na etapie transformacji do przestrzeni standaryzowanej poprzez dekompozycję macierzy korelacji. Pominięcie korelacji funkcyjnych prowadzi do systematycznego przeszacowania współczynnika niezawodności, zwłaszcza w problemach z wieloma mechanizmami zniszczenia.
Wybór zmiennych istotnych (eliminacja redundancji )
Ograniczenie wymiaru przestrzeni losowej do zmiennych istotnych i nieredundantnych
prowadzi w tym przykładzie do następującego wektora zmiennych stanu:
$[X] = [, L , \, W_y , \, I_y , \, f_y ,\ , E ,\ , G ,\ , S ]$
gdzie:
– $A$ zostaje usunięte (informacja zawarta w $W_y$ i $I_y$),
– zachowujemy jednocześnie $W_y$ i $I_y$, ponieważ: $W_y$ dominuje w mechanizmie M1 (nośność), a $I_y$ dominuje w mechanizmie M2 (ugięcie).
Zmienne $X_i$ są nadal zmiennymi oryginalnymi, o rzeczywistych jednostkach fizycznych.
Zmiennymi funkcyjnie istotnymi dla obu mechanizmów zniszczenia są:
– dla nośności $ M_1$: $W_y,,f_y,,L,,G,,S$,
– dla ugięcia $M_2$: $I_y,,E,,L,,G,,S$.
Zmienne $A$ oraz $m$ są redundantne, ponieważ: $A$ jest w pełni skorelowane z $I_y$ i $W_y$ ; masa własna została już uwzględniona w $G$.
Redukcja macierzy korelacji
Redukcja macierzy korelacji polega na wybraniu z $\boldsymbol{\rho}_{XO,XO}$ tylko tych wierszy i kolumn, które odpowiadają zmiennym zachowanym w wektorze $X$. co można formalnie zapisać
$\boldsymbol{\rho}{X,X} = \boldsymbol{R}, \boldsymbol{\rho}{XO,XO}, \boldsymbol{R}^T$,
gdzie $\boldsymbol{R}$ jest macierzą selekcji (0–1), analogiczną do macierzy więzów kinematycznych w MES.
W praktyce oznacza to fizyczne usunięcie odpowiednich wierszy i kolumn.
Dla przyjętego wektora $X=[L,; Q,; f_y,; E,; I_y]$ , otrzymujemy w ten sposób zredukowaną macierz korelacji:
$\boldsymbol{\rho}_{X,X}=
\begin{bmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0{,}2 & 0 \\
0 & 0 & 0{,}2 & 1 & 0 \\
0 & 0 & 0 & 0 & 1\\
\end{bmatrix}$.
Macierz ta jest: symetryczna, dodatnio określona, blokowo-diagonalna (sprzężenie tylko między $X_3 \, (f_y) $ i $X_4 \, (E) $
Interpretacja inżynierska (analogia do MES): Ten etap jest dokładnym odpowiednikiem: eliminacji stopni swobody przez warunki brzegowe, kondensacji statycznej, redukcji macierzy sztywności.
Normalizacja zmiennych $X_i \rightarrow Z_i$
Celem normalizacji jest sprowadzenie każdej zmiennej $X_i$ do zmiennej $Z_i \sim \mathcal{N}(0,1)$
przy zachowaniu równoważności probabilistycznej, tj. zachowaniu kwantyli.
Normalizacja zmiennych o rozkładzie normalnym
Jeżeli zmienna $X_i$ ma rozkład normalny $X_i \sim \mathcal{N}(\mu_i,\sigma_i^2)$, to jej dystrybuanta ma postać $F_{X_i}(x)=\Phi!\left(\dfrac{x-\mu_i}{\sigma_i}\right)$.
Po podstawieniu do definicji normalizacji otrzymujemy: $Z_i = \Phi^{-1}!\left(\Phi!\left(\dfrac{X_i-\mu_i}{\sigma_i}\right)\right)
= \dfrac{X_i-\mu_i}{\sigma_i}$.
W tym szczególnym przypadku normalizacja pokrywa się algebraicznie ze standaryzacją, ale jest to wyjątek, a nie reguła.
Normalizacja zmiennych o rozkładzie lognormalnym
Jeżeli zmienna $X_i$ ma rozkład lognormalny, tj. $\ln X_i \sim \mathcal{N}(\mu_{L,i},\sigma_{L,i}^2)$, to dystrybuanta $X_i$ ma postać: $F_{X_i}(x)=\Phi!\left(\dfrac{\ln x-\mu_{L,i}}{\sigma_{L,i}}\right)$.
Transformacja normalizująca przyjmuje więc postać: $Z_i = \Phi^{-1}!\left(\Phi!\left(\dfrac{\ln X_i-\mu_{L,i}}{\sigma_{L,i}}\right)\right) = \dfrac{\ln X_i-\mu_{L,i}}{\sigma_{L,i}}$.
Normalizacja zmiennej o rozkładzie Gumbela (max)
Jeżeli zmienna $X_i$ (np. obciążenie śniegiem) ma rozkład Gumbela typu maksimów: $F_{X_i}(x)=\exp!\left[-\exp!\left(-\dfrac{x-\alpha_i}{\beta_i}\right)\right]$,
to transformacja normalizująca ma postać: $Z_i = \Phi^{-1}!\left(\exp!\left[-\exp!\left(-\dfrac{X_i-\alpha_i}{\beta_i}\right)\right]\right)$.
Jest to ściśle monotoniczna transformacja nieliniowa, która: zachowuje kwantyle ; eliminuje asymetrię rozkładu; sprowadza zmienną do przestrzeni Gaussa.
Normalizacja zmiennej o rozkładzie Weibulla (min)
Jeżeli zmienna $X_i$ ma rozkład Weibulla typu minimów: $F_{X_i}(x)=1-\exp!\left[-\left(\dfrac{x}{\lambda_i}\right)^{k_i}\right]$, to normalizacja ma postać:
$Z_i = \Phi^{-1}!\left(1-\exp!\left[-\left(\dfrac{X_i}{\lambda_i}\right)^{k_i}\right]\right)$.
Transformacja ta jest szczególnie istotna dla zmiennych opisujących: degradację, trwałość, właściwości kontrolowane przez „najsłabszy element”.
Po tej transformacji zachodzi: $\mathbb{E}[Z_i] = 0$ , $\mathrm{Var}(Z_i) = 1$
Normalizacja analityczna dla każdej zmiennej $X_i$.
Zmienna $X_1$ – rozpiętość belki $L$ oraz zmienna $X_4$ – granica plastyczności $f_y$
$L \sim \mathcal{N}(\mu_L,,\sigma_L^2)$ ; $f_y \sim \mathcal{N}(\mu_{f_y},,\sigma_{f_y}^2)$
Normalizacja:
$Z_1 = \dfrac{L – \mu_L}{\sigma_L}$ ; $Z_4 = \dfrac{f_y – \mu_{f_y}}{\sigma_{f_y}}$
(w tym szczególnym przypadku normalizacja i standaryzacja są tożsame, ponieważ rozkład jest już normalny).
Zmienna $X_2$ – pole przekroju $A$ oraz zmienna $X_3$ – moment bezwładności $I_y$
$A \sim \mathcal{LN}(\mu_{\ln A},,\sigma_{\ln A}^2)$ ; $I_y \sim \mathcal{LN}(\mu_{\ln I},,\sigma_{\ln I}^2)$
$F_A(a) = \Phi!\left( \dfrac{\ln a – \mu_{\ln A}}{\sigma_{\ln A}} \right)$
Normalizacja:
$Z_2 = \Phi^{-1}!\left( F_A(A) \right) = \dfrac{\ln A – \mu_{\ln A}}{\sigma_{\ln A}}$ ; $Z_3 = \dfrac{\ln I_y – \mu_{\ln I}}{\sigma_{\ln I}}$
Zmienna $X_5$ – obciążenie śniegiem $S$
$S \sim \mathrm{Weibull}_{\max}(\lambda_S,,k_S)$
lub równoważnie (jeśli zapis ekstremalny):
$F_S(s) = \exp!\left[ -\left( \dfrac{s}{\lambda_S} \right)^{k_S} \right]$
Normalizacja:
$Z_5 = \Phi^{-1}!\left( F_S(S) \right)$, czyli jawnie:
$Z_5 = \Phi^{-1}!\left(\exp!\left[ -\left( \dfrac{S}{\lambda_S} \right)^{k_S} \right]\right)$
Macierz korelacji po normalizacji
Ponieważ normalizacja jest wykonana składowo, monotonicznie i bez mieszania zmiennych, tj. w postaci
$Z_i = \Phi^{-1}!\left( F_{X_i}(X_i) \right), \qquad i=1,\ldots,n$,
więc macierz korelacji jest zachowana dla wszystkich kombinacji indeksów zmiennych (i , \, j) (i, j = 1 \cdots 5)
$\boxed{ \mathrm{Corr}[\mathbf{Z},\mathbf{Z}] = \mathrm{Corr}[\mathbf{X},\mathbf{X}] }$
gdzie $\mathbf{X}=[X_1,\ldots,X_n]$ – zmienne istotne,
a $\mathbf{Z}=[Z_1,\ldots,Z_n]$ – zmienne po normalizacji.
Standaryzacja (centrowanie)
Dla każdej zmiennej istotnej $Z_i$ definiujemy zmienną standaryzowaną
$Z_i^{0} = \dfrac{Z_i – \mu_{Z_i}}{\sigma_{Z_i}}$
Ponieważ centrowanie jest transformacją afiniczną ( w tym przypadku podobieństwa liniowego), więc też zachowuje macierz korelacji
$\mathrm{Corr}(Z_i^{0}, Z_j^{0}) = \mathrm{Corr}(Z_i, Z_j)$
Dekorelacja
Wykonując kolejne kroki wg algorytmu Pugeczova otrzymujemy:
Iteracja $k=1$
$d_1=c_{11}=1$,
$a_{1j}=c_{j1}/d_1=0$ dla $j=2,\ldots,5$.
Iteracja $k=2$
$d_2=c_{22}=1$,
$a_{2j}=0$ dla $j=3,\ldots,5$.
Iteracja $k=3$
$d_3=c_{33}=1$,
$a_{34}=c_{43}/d_3=0.2$,
$a_{35}=0$.
Iteracja $k=4$
$d_4=c_{44}-d_3 a_{34}^2=1-1\cdot 0.2^2=0.96$,
$a_{45}=0$.
Iteracja $k=5$
$d_5=c_{55}=1$.
Wyniki końcowe mają postać:
macierz transformacji kanonicznej
$\mathbf{A}=
\begin{bmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0.2 & 1 & 0 \\
0 & 0 & 0 & 0 & 1\\
\end{bmatrix}$,
macierz kowariancji (korelacji) nieskorelowanych składowych
$\mathbf{C}_{uu}=\mathrm{diag}(1,;1,;1,;0.96,;1)$.
Otrzymany wynik pokazuje wprost kluczową własność rozkładu kanonicznego Pugaczowa: zanik korelacji zostaje zredukowany do lokalnej modyfikacji jednego kierunku przestrzeni losowej, przy jednoczesnym ujawnieniu redukcji wariancji w kierunku sprzężonym (tu $d_4<1$). W sensie interpretacyjnym jest to szczególnie użyteczne w modelach dynamicznych, gdzie korelacje pojawiają się lokalnie (czasowo lub mechanicznie), a nie globalnie w całym wektorze stanu.
Sprawdzenie:
\[ \mathbf{L}\mathbf{L}^T = \begin{bmatrix}
1 & 0 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0{,}2 & 0 \\
0 & 0 & 0{,}2 & 1 & 0 \\
0 & 0 & 0 & 0 & 1 \end{bmatrix} = \boldsymbol{\rho}_{X,X}\
Interpretacja inżynierska:
1) Dekorelacja dotyczy wyłącznie pary $X_3$- $X_4$ $(f_y – E)$ lub innych sprzężonych parametrów materiałowych). Pozostałe zmienne są statystycznie niezależne i nie wymagają transformacji.
Struktura macierzy po dekoleracji wskazuje, że zmienne $X_1$, $X_2$ oraz $X_5$ są wzajemnie nieskorelowane i niezależne liniowo od pozostałych składowych, natomiast jedynym istotnym sprzężeniem liniowym w układzie jest para zmiennych $(X_3,X_4)$, skorelowana współczynnikiem $0.2$. Już na poziomie macierzy korelacji widać zatem, że wymiar losowy układu jest efektywnie zredukowany do jednego sprzężonego podukładu dwuwymiarowego oraz trzech kierunków jednoznacznie niezależnych.
2) Zastosowanie kanonicznej dekorelacji w sensie Pugacheva prowadzi do transformacji $\mathbf{Z}^0=\mathbf{A}\mathbf{U}$ takiej, że $\mathbf{C}_{uu}=\mathrm{diag}(d_k)$ jest macierzą diagonalną. W analizowanym przypadku algorytm ujawnia, że dla zmiennych odpowiadających $X_1$, $X_2$ oraz $X_5$ współczynniki $d_k$ są równe jedności i nie generują żadnych wyrazów pozadiagonalnych w macierzy $\mathbf{A}$. Oznacza to, że zmienne te nie wymagają żadnej korekty ani mieszania z innymi składowymi – już na wejściu są niezależnymi kierunkami losowymi.
Dla pary $(X_3,X_4)$ algorytm Pugacheva prowadzi natomiast do jednego kierunku dominującego oraz jednego kierunku wtórnego, co odpowiada rozkładowi informacji losowej pomiędzy dwie nowe zmienne $U_3$ i $U_4$. W tym sensie dekorelacja nie tylko eliminuje korelację, lecz również porządkuje zmienne według ilości niezależnej informacji losowej zawartej w danym podprzestrzennym kierunku.
3) W kontekście modelu dynamicznego ma to jednoznaczną interpretację. Zmienne $X_1$, $X_2$ i $X_5$ mogą być traktowane jako niezależne procesy losowe sterujące różnymi aspektami odpowiedzi konstrukcji w czasie (np. niezależne obciążenia środowiskowe lub parametry materiałowe). Sprzężenie $(X_3,X_4)$ wskazuje natomiast na wspólne źródło zmienności, które w modelu dynamicznym może odpowiadać jednemu mechanizmowi degradacyjnemu obserwowanemu przez dwie różne wielkości stanu (np. postęp korozji i spadek sztywności).
4) Dekorelacja Pugacheva pozwala ten mechanizm wydzielić w postaci jednej dominującej składowej losowej oraz jednej składowej uzupełniającej, co jest szczególnie istotne w analizie czasowej. W modelu dynamicznym umożliwia to interpretację zaniku lub wzrostu wariancji $d_k(t)$ jako bezpośredniego efektu ewolucji procesu degradacyjnego, bez mieszania go z innymi, niezależnymi procesami losowymi.
5) W przeciwieństwie do dekompozycji Cholesky’ego, która w tym przypadku również prowadziłaby róenież do eliminacji korelacji, metoda Pugacheva zachowuje czytelną interpretację informacyjną: każdy krok algorytmu odpowiada ujawnieniu nowego, niezależnego kierunku losowego lub stwierdzeniu jego zaniku. Dzięki temu dekorelacja kanoniczna jest szczególnie użyteczna w modelach dynamicznych, w których celem nie jest jedynie transformacja numeryczna, lecz również identyfikacja i śledzenie aktywnych mechanizmów losowych w czasie.
6) W analizowanym przykładzie oznacza to, że dynamiczny model niezawodności może być prowadzony w przestrzeni $\mathbf{U}$ o tej samej nominalnej liczbie wymiarów, lecz z wyraźnym rozdziałem na procesy niezależne oraz procesy sprzężone, co upraszcza zarówno interpretację fizyczną, jak i implementację numeryczną modelu dynamicznego.
Przykład 9 [Obciążenie śniegiem jako zmienna losowa – rozkład Weibulla max ]
W dalszej analizie przyjmuje się, że obciążenie śniegiem działające na belkę nie jest wielkością nominalną, lecz realizacją zmiennej losowej opisującej ekstremalne oddziaływania środowiskowe w zadanym okresie odniesienia. Zmienna ta jest związana z maksymalnym obciążeniem śniegiem w okresie powrotu $T=50$ lat.
Zgodnie z przyjętym założeniem, wartość obciążenia śniegiem zastosowana w przykładzie 8
$S = 0{,}9 \cdot 0{,}8 \cdot 5{,}0 = 3{,}6\ \mathrm{kN/m}$
nie jest wartością średnią ani charakterystyczną w sensie statystycznym, lecz kwantylem rozkładu ekstremalnego rzędu
$p = 1 – \dfrac{1}{T} = 1 – \dfrac{1}{54} = 0{,}98$.
Wybór typu rozkładu
Obciążenie śniegiem traktowane jest jako ekstremum maksymalne procesu losowego w czasie, dlatego przyjmuje się rozkład Weibulla typu maksimum (równoważnie: Weibull z prawym ogonem).
Dystrybuanta rozkładu Weibulla (max) ma postać
$F_S(s) = \exp!\left[-\left(\dfrac{s}{\lambda_S}\right)^{k_S}\right]$,
gdzie:
$k_S$ – parametr kształtu,
$\lambda_S$ – parametr skali.
Warunek kwantyla dla okresu powrotu $T=50$ lat
Z definicji okresu powrotu zachodzi
$F_S(S_{54}) = 1 – \dfrac{1}{54} = 0{,}98$.
Po podstawieniu dystrybuanty Weibulla otrzymujemy warunek:
$\exp!\left[-\left(\dfrac{S_{54}}{\lambda_S}\right)^{k_S}\right] = 0{,}98$.
Po przekształceniu:
$\left(\dfrac{S_{54}}{\lambda_S}\right)^{k_S} = -\ln(0{,}98)$.
Stąd parametr skali wyraża się wzorem:
$\lambda_S = \dfrac{S_{54}}{[-\ln(0{,}98)]^{1/k_S}}$.
Dobór parametru kształtu $k_S$
Parametr kształtu $k_S$ nie wynika z jednego kwantyla i musi zostać przyjęty na podstawie:
– danych klimatycznych,
– doświadczenia inżynierskiego,
– zaleceń literaturowych.
Dla obciążeń śniegiem typowe wartości mieszczą się w przedziale:
$k_S = 1{,}5 \div 3{,}0$.
W przykładzie przyjmuje się wartość pośrednią:
$k_S = 2{,}0$.
Wyznaczenie parametru skali $\lambda_S$
Dla $k_S=2{,}0$ mamy:
$-\ln(0{,}98) \approx 0{,}0202$.
Zatem:
$\lambda_S = \dfrac{3{,}6}{(0{,}0202)^{1/2}} \approx \dfrac{3{,}6}{0{,}142} \approx 25{,}4\ \mathrm{kN/m}$.
Ostatecznie:
$S \sim \mathrm{Weibull}_{max}(k_S=2{,}0,\ \lambda_S=25{,}4\ \mathrm{kN/m})$.
Powiązanie z parametrami z próby
Współczynnik zmienności dla rozkładu Weibulla wynosi:
$v_S = \sqrt{\dfrac{\Gamma(1+2/k_S)}{\Gamma^2(1+1/k_S)} – 1}$.
Dla $k_S=2{,}0$ otrzymujemy:
$\Gamma(1{,}5)=0{,}886$,
$v_S \approx 0{,}52$.
Oznacza to bardzo dużą zmienność obciążenia śniegiem, co jest typowe dla zjawisk klimatycznych o charakterze ekstremalnym. Przyjęty wcześniej współczynnik zmienności $v_S=15%$ odpowiadałby rozkładom bliższym normalnym i nie opisuje poprawnie ogona ekstremalnego.
W dynamicznym modelu niezawodności nie wymaga się jednak zgodności z chwilową próbą obserwacyjną, lecz poprawnego odwzorowania zachowania ogona rozkładu, który decyduje o bezpieczeństwie.
Znaczenie dla dalszej analizy niezawodności
Przyjęcie obciążenia śniegiem jako kwantyla rozkładu Weibulla dla $T=50$ lat oznacza, że:
– zmienna $S$ nie jest „obciążeniem charakterystycznym” w sensie normowym,
– lecz realizacją ekstremum w danym horyzoncie czasowym,
– a jej rola w funkcjach granicznych jest naturalnie powiązana z czasem i ryzykiem.
W metodach FORM/HL, binarnych oraz w modelu dynamicznym wartość $S_{54}$ stanowi punkt odniesienia do wyznaczenia prawdopodobieństwa przetrwania $\tilde{p}_s(t)$ oraz współczynnika niezawodności $\tilde{\beta}(t)$.
Mechanizmy zniszczenia
Mechanizm M1 – nośność na zginanie:
$M_E \le M_R$
gdzie:
$M_E = \dfrac{Q L^2}{8}$,
$Q = G + S$,
$M_R = W_{pl} f_y$.
Mechanizm M2 – ugięcie:
$f \le f_{dop}$
gdzie:
$f = \dfrac{5}{384} \cdot \dfrac{Q L^4}{E I}$,
$f_{dop} = \dfrac{L}{350}$.
Przykłady do części IIa
Przykład 10 [System szeregowy – kratownica statycznie wyznaczalna]
Zaprojektować kratownicę pokazaną na rys.P2-1, tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła β =3,8.
Dane

Rys. P2-1. Schemat kratownicy statycznie wyznaczalnej. Niezawodnościowy system szeregowy
Analiza Problemu
Rozwiązanie zadania podano w artykule Chodor L, Kłosowska, Dobór elementów struktury konstrukcyjnej szeregowej z warunku wskaźnika niezawodności dla normalnego, log-normalnego, Weibulla i Gumbela rozkładu granicy bezpieczeństwa, Kielce 2014. który zostal sporządzony podczas kursu prowadzonego w 2014 roku przez autora w ramach przedmiotu „Bezpieczenstwo i Niezawodność Budowli” na Wydziale Budownictwa Lądowego Politechniki Świętokrzyskiej w Kielcach:
Skrócone wnioski
- Niezawodność układu zależy od losowej zmiennościobciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.
Projektowanie konstrukcji bez uwzględnienia struktury niezawodnościowej jest zawodne i w praktyce inżynierskiejmoże być przyczyną katastrof budowlanych również wtedy, gdy jest prowadzone metodą stanów granicznych z częściowymi współczynnikami bezpieczeństwa.
- W doborze rozkładu prawdopodobieństw należy kierować się tylko przesłankami obiektywnymi, oraz dostępnymi narzędziami analitycznym:
a) rozkład Gaussa (normalny), stosowany w większości probc na temat bezpieczeństwa konstrukcji. zwykle prowadzi do uzyskania zbyt optymistycznego oszacoania niezawodnosći konstrukcji.,
b) dla bardziej realistycznych rozkładów ekstremalnychuzyskuje si e mniejsze niezawodnosći konstrukcji,
- W praktyce inżynierskiej, do opisania charakteru obciążeń powinno się założyć, że są one określone rozkładem Gumbela (rozkład maximów), a wytrzymałość konstrukcji opisuje rozkład Weibulla (rozkład minimów).
Prz tym zastosowanie metody kolokacji rozkłądów prawdopodobieństwa, sprowadza analizę do znanych algorymów, wykorzytujących własności rozkładu normalnego,
- Podany w pracy przykład potwierdza tezę, że przy analizie niezawodności konstrukcji, należy brać pod uwagę rodzaj rozkładu decydujących parametrów tj. obciążenia i wiodących zmiennyeh nośności.
Przykład 11 [System równoległy -sprężysto-plastyczna rama portalowa ]
Zaprojektować ramę pokazaną na rys. 11 , tak by jej niezawodność mierzona wskaźnikiem Hasofera-Linda wynosiła β =3,8 .
Dane

Rys.P3-1. Schemat ramy statycznie niewyznaczalnej – niezawodnościowy system mieszany
Rozwiązanie zadania podano w odrębnym artykule: Chodor L, Kłosowska J., Dobór elementów złożonej struktury konstrukcyjnej z warunku wskaźnika niezawodności, Kielce, 2014 . Zastosowano klasyczne podejście teorii nośności plastycznej, a także najprostsze oszacowania granic niezawodności systemu niezawodnościowego.
Skrócone wnioski
- Niezawodność układu zależy od losowej zmienności obciążenia i nośności każdego elementu wchodzącego w skład układu, rodzaju rozkładu, a także struktury niezawodnościowej.Nośność systemu obliczona jako kwantyl globalny jest większa od sumy kwantyli lokalnych, co jest określane statystycznym efektem zwiększenia nośności obliczeniowej system równoległego.
Dla analizowanej ramy statystyczny efekt zwiększenia nośności obliczeniowej wynosi 15%,
- Struktury niezawodnościowe są skorelowane, ponieważ najczęściej posiadają elementy wspólne. Uzyskanie ścisłych wyrażeń na niezawodność lub prawdopodobieństwo zniszczenia dowolnych struktur jest zadaniem złożonym, dlatego ważne jest stosowanie oszacowań górnych i dolnych prawdopodobieństwa zniszczenia.
Przy założeniu, że minimalne cięcia systemu nie mają wspólnych elementów oszacowanie nośności granicznej konstrukcji z warunku $N = min N_k$
daje oszacowanie od dołu, faktyczna nośność plastyczna może być większa.
Przykład 12 [Minimalne ścieżki i cięcia i oszacowanie niezawodności systemu metodą Barlow-Proschan]
Przykład za pracą
Wyznaczyć minimalne ścieżki cięcia kratownicy Ditlevsen-Madsen, pokazanej na rys. P4-1 oraz oszacować niezawodność systemu.

rys_P3-1. Kratownica Ditlevsen-Madson
Dane
Kratownica Ditlevsen-Madsen (rys. 2-1) składa się z 10. elementów {1, 2, 3, 4, 5, 6, 7, 8, 9, 10}. Kratownice podstawowe (1) do (6) uzyskano poprzez usunięcie odpowiednio pręta: 1, 2, 3, 4,5, 6, to znaczy są to wszystkie możliwe schematy geometrycznie niezmienne.
Sposób utworzenia kratownic podstawowych (1) do (6)
Systemy podstawowe )w tym przypadku kratownice podstawowe) są takie systemy utworzone z systemu oryginalnego (rys. P4-1a), w taki sposób, że po awarii części elementów system pracuje. W budownictwie „system pracuje” = ” system jest stabilny”, czyli pozostaje stabilny i wytrzymały.
W przypadku kratownicy Ditlevsen-Madsen do zbioru systemów podstawowych nie można zaliczyć systemów:
- z usuniętymi elementami 7, 8, 9 lub 10, bo to prowadziłoby do ustroju geometrycznie zmiennego (mechanizmu) i nie spełnia podstawowego warunku systemu konstrukcyjnego, a także wymogu dla minimalnej ścieżki elementów w konstrukcji budowlanej.
- z usuniętymi kolejnymi prętani w schemacie (1) do (6), bo konstrukcja budowlana zmieniłaby się w konstrukcję mechaniczną (mechanizm, czyli system o jednym stopniu swobody).
Minimalne ścieżki
Minimalne ścieżki kratownicy Ditlevsen-Madsen, obrazują schematy (1} do (6) na rys P4-1b. Odpowiadające zbiory elementów można zapisać następująco:
minimalne ścieżki (P12-1)
$S_1={2,3,4,5,6,7,8,9,10}$
$S_2={1,3,4,5,6,7,8,9,10}$
$S_3={1,2,4,5,6,7,8,9,10}$
$S_4={1,2,3,5,6,7,8,9,10}$
$S_5={1,2,3,4,6,7,8,9,10}$
$S_6={1,2,3,4,5,7,8,9,10}$
Każda ścieżka daje oszacowanie: $ r_{S_j} = \prod_{i \in S_j} r_i = r^9 $
Każdy z tych systemów (minimalnych ścieżek) jest układem szeregowym z punktu widzenia niezawodności, zawierającym po n= 9 elementów (prętów). Te minimalne ścieżki są pomiędzy sobą równolegle połączone z punktu widzenia niezawodności.
Minimalne cięcia
Ponieważ elementy 7, 8, 9, 10 występują w każdej minimalnej ścieżce, to mamy 4-ry cięcia jednoelementowe:
${7}, {8}, {9}, {10}$
Każdy z pozostałych sześciu elementów: 1 , 2 , 3 , 4 , 5, 6 występuje po pięć razy we wszystkich minimalnych ścieżkach, to znaczy, wszystkie pozostałe zestawy minimalnych cięć mają dwa elementy i pojawiają się w identycznych parach, a zatem istnieje $\cfrac {5 \cdot 6} {2}=$ 15 minimalnych cięć dwuelementowe:
${1,2}, {1,3}, {1,4}, {1,5}, {1,6},$
${2,3}, {2,4}, {2,5}, {2,6},$
${3,4}, {3,5}, {3,6},$
${4,5}, {4,6},$
${5,6}$
Ostatecznie mamy 19. minimalnych cięć, które reprezentują system szeregowy z 19. oma elementami, z których 15. stanowi równoległe systemy z dwoma elementami. Ostatecznie mamy następujące minimalne cięcia
minimalne cięcia (P12-2)
$\{7\} ,\{8\} ,\{9\} ,\{10\}, $
$\{1,2\}, \{1,3\}, \{1,4\}, \{1,5 \}, \{1,6 \}, $
$\{2,3\}, \{2,4\}, \{2,5\}, \{2,6 \}, $
$\{3,4\}, \{3,6\}, $
$\{4,5\}, \{4,6\}, $
$\{5,6\}. $
Dla identycznych elementów cięcia mają niezawodności:
jednoelementowe: $r_C = r$,
dwuelementowe: $r_C = r^2$
Oszacowania niezawodności
Przyjmijmy dość oczywiste założenie stowarzyszenia elementów (stowarzyszenia zapasów nośności poszczególnych prętów kratownicy), a następnie przyjmijmy, że elementy mają identyczną niezawodność r :
$r_i = r \quad (i=1,…10)$
Zgrubne oszacowanie
dla elementów stowarzyszonych, ale bez znajomości minimalnych ścieżek i cięć wyznaczamy z zależności ($\ref{115}$).
W przypadku braku informacji o ścieżkach i cięciach, BP-A odnosi się do liczby elementów systemu, a nie do liczby minimalnych cięć. System ma 10 elementów.
$ r^{10} \le r_s \le r $ (P12-3)
Jeśli uwzględniamy znajomość minimalnych ścieżek (P12-1) oraz minimalnych cięć (P12-2), to zgodnie z ($\ref{121}$), mamy oszacowanie :
Dolne ograniczenie (ścieżki):
$ r_s \ge \max_j \prod_{i \in S_j} r_i = r^9 $
Górne ograniczenie (cięcia):
$ r_s \le \min_j \prod_{i \in C_j} r_i = \min(r,\; r^2) = r^2 $
Ostatecznie:
$ r^9 \le r_s \le r^2 $ (P12-4)
Wnioski
1) Przykład kratownicy Ditlevsen–Madsen pokazuje, że oszacowania Barlow–Proschan dostarczają fundamentalnej, strukturalnej informacji o zachowaniu systemu, natomiast oszacowania Ditlevsen–Madsen umożliwiają dalsze zawężanie przedziału niezawodności poprzez wykorzystanie informacji o wspólnych realizacjach zdarzeń zniszczenia. W praktyce inżynierskiej podejście BP stanowi naturalny pierwszy krok analizy systemowej, zaś oszacowania Ditlevsen–Madsen są logicznym uzupełnieniem w sytuacjach, gdy znane są dominujące mechanizmy zniszczenia oraz ich wzajemne powiązania.
2) Oszacowania Barlow–Proschan wykorzystują jedynie informację o strukturze systemu (minimalnych ścieżkach i cięciach) oraz ewentualnie o stowarzyszeniu elementów. Nie uwzględniają natomiast informacji o stopniu zależności pomiędzy mechanizmami zniszczenia, ani o wzajemnym „nakładaniu się” zdarzeń zniszczenia w sensie probabilistycznym.
2) Ditlevsen i Madsen (1996) zaproponowali ostrzejsze oszacowania niezawodności systemu, wykorzystujące: znajomość minimalnych ścieżek lub cięć; ; prawdopodobieństwa zniszczenia poszczególnych mechanizmów; pary zdarzeń zniszczenia (korelacje na poziomie mechanizmów).
Zdarzenia zniszczenia ścieżek
Niech zdarzenie
$F_j = {\text{zniszczenie minimalnej ścieżki } S_j}$
oraz
$p_j = \Pr(F_j) = 1 – r_{S_j}$.
W rozpatrywanym przykładzie, przy identycznych elementach i założeniu stowarzyszenia:
$r_{S_j} = r^9 \quad \Rightarrow \quad p_j = 1 – r^9$
dla $j = 1,\ldots,6$.
Dolne i górne oszacowanie Ditlevsen–Madsen (na poziomie ścieżek)
Ditlevsen–Madsen podają następujące oszacowania dla systemu równoległego zdarzeń $F_j$:
Dolne ograniczenie:
$r_s \ge 1 – \sum_{j=1}^s p_j$
Górne ograniczenie:
$r_s \le 1 – \max_{1 \le j \le s} p_j$
W naszym przykładzie ($s=6$):
Dolne oszacowanie:
$r_s \ge 1 – 6(1 – r^9)$
Górne oszacowanie:
$r_s \le r^9$
Otrzymujemy zatem przedział:
$1 – 6(1 – r^9) \le r_s \le r^9$
(P12-5)
To oszacowanie jest ostrzejsze od BP-A, ale nie zawsze ostrzejsze od BP-C, ponieważ wykorzystuje tylko informację o ścieżkach, bez jawnego uwzględnienia cięć jednoelementowych.
Oszacowanie Ditlevsen–Madsen z korektą par zdarzeń
Ditlevsen–Madsen proponują ulepszone dolne oszacowanie typu Bonferroniego drugiego rzędu:
$r_s \ge 1 – \sum_{j=1}^s p_j + \sum_{j<k} \Pr(F_j \cap F_k)$
W analizowanym przykładzie ścieżki $S_j$ i $S_k$ nakładają się na 8 wspólnych elementów, a różnią się jednym prętem z grupy ${1,\ldots,6}$.
Dla elementów stowarzyszonych i identycznych:
$\Pr(F_j \cap F_k) = 1 – r^{10}$
co prowadzi do dalszego zawężenia dolnego oszacowania:
$r_s \gtrsim 1 – 6(1 – r^9) + \binom{6}{2}(1 – r^{10})$
(P12-6)
Oszacowanie to jest istotnie ostrzejsze od ($P12$-5) i w praktyce często zbliża się do rzeczywistej niezawodności systemu.
Porównanie BP i Ditlevsen–Madsen w Przykładzie 12
Dla tego samego systemu otrzymujemy:
BP-A (brak struktury):
$r^{10} \le r_s \le r$
BP-C (ścieżki + cięcia, elementy stowarzyszone):
$r^9 \le r_s \le r^2$
Ditlevsen–Madsen (ścieżki + pary zdarzeń):
$1 – 6(1 – r^9) + \binom{6}{2}(1 – r^{10}) ;\lesssim; r_s ;\le; r^9$
Widać wyraźnie, że:
– BP daje geometryczną, strukturalną ramę niezawodności systemu,
– Ditlevsen–Madsen zagęszcza informację probabilistyczną wokół tej ramy,
– oba podejścia są komplementarne, a nie konkurencyjne.
Przykład 13 [ Oszacowania niezawodności metodą uogólnionej korelacji]
Wyznaczyć niezawodność belki żelbetowej , pokazanej na rys. P5-1 metodą uogólnionej korelacji,
Uwzględnić mechanizm zniszczenia zbrojenia (przekrój-warstwa 1), a także betonu (przekrój-warstwa 2) oraz mechanizm ścięcia przekroju przypodporowego 3. Zmiennymi losowymi zadania są własności materiałów: stali $ f_y $ oraz betonu $f_c$, a także rozstaw zbrojenia $s$ oraz obciążenia stałe $G$ oraz zmienne $Q$.

Rys. P5-1 Belka żelbetowa do przykładu 3
Pomiędzy wytrzymałością stali i betonu zachodzi korelacja statystyczna mierzona współczynnikiem korelacji $\rho_{b,s}=0,8$.
Nośności przekroju belki dla poszczególnych mechanizmów zniszczenia są następujące:
- nośność zbrojenia w zginanym przekroju 1: $R_1=b \cdot x_{eff}(d-0,5x_{eff})$, gdzie $x_{eff}= \cfrac {A_s \cdot f_y}{b \cdot f_c}$;
- nośność betonu w zginanym przekroju 2: $R_2=0,42 \cdot b \cdot d^2 f_c$;
- nośność na ścinanie w przekroju 3 : $R_3 = \sqrt{ 8 \cdot b \cdot d^2 \cdot A_{s,w} \cdot f_{y,w} \cdot f_{c,t}}$.
Liczba wyżej wymienionych mechanizmów jest liczbą elementów systemu niezawodnościowego,
$n=3$
Siły przekrojowe wynoszą:
moment zginający w środku rozpiętości $ S_1=\cfrac {(G+Q) \cdot l^2} {14}$;
siła poprzeczna $ S_3=\cfrac {(G+Q) l}{2}$
Powyższe związki funkcyjne prowadzą do skorelowania nośności oraz sił przekrojowych, nawet jeśliby zmienne wejściowe były niezależne. Po przeprowadzeniu obliczeń pierwszego rzędu (linearyzacji), otrzymano wartości parametrów statystycznych, zestawione w tab P5-1. Szczegółowych obliczeń w tym zakresie nie przeprowadza się, ponieważ nie są one przedmiotem przykładu. Ze względu na silnie nieliniowe związki pomiędzy zmiennymi sugerujemy, by obliczenia prowadzić metodami symulacyjnymi za pomocą ogólnie dostępnych generatorów liczb losowych i procedur numerycznych, a nie w drodze przekształceń wzorów.
Tab. P5-1 Parametry statystyczne zmiennych do przykładu 5.
Średni współczynnik uogólnionej korelacji ($\ref{129}$) wynosi: $\rho_m= \cfrac{2(0,332+0,371+0,580)}{3\cdot (3-1)}=0,428$
Miarodajny współczynnik korelacji ($\ref{123}$) wynosi:
$ \rho = 0,428 \{ 2-[0,428 + \cfrac {(1-0,428) \cdot (3-log3)} {1-0,1 \cdot 0,428^2 \cdot (3-log3)^2 } ] \} \approx 0$
W przykładzie założymy, że zapasy bezpieczeństwa dla poszczególnych mechanizmów $Z_1$, $Z_2$, $Z_3$ mają normalny rozkład prawdopodobieństwa.
Wówczas indeksy niezawodności wynoszą:
$\beta_1=\cfrac {\mu_{Z_1}}{\sigma_{Z_1}} =\cfrac{130}{51,9}=2,10$,
$\beta_2= \cfrac{474}{124}=3,59$,
$\beta_3= \cfrac{130}{55,5}=2,29$.
Z tablic rozkładu normalnego uzyskujemy prawdopodobieństwo niezawodności dla poszczególnych mechanizmów zniszczenia:
$ p_{s1}=\Phi (2,10)= 0,98214$,
$ p_{s2}=\Phi (3,59)=0,99983$,
$ p_{s3}=\Phi (2,29)=0,98899$.
Niezawodność systemu ($\ref{129}$), wynosi:
$ p_s \approx 0,0 \cdot \min \{ p_{s1} ; p_{s2} ; p_{s3} \}+(1-0,0) [1- (1-p_{s1}) \cdot (1-p_{s2}) \cdot (1-p_{s3})]=0,0 +1,0[1-(1-0,98214)(1-0,99983)(1-0,98899)]=0,9999$
Można wykazać, że dokładniejsze oszacowanie niezawodności systemu wskazuje, że jest ona nieco mniejsza wynosi 0,9918.
Niezawodności poszczególnych mechanizmów dokładniej opisuje się krzywymi Gram-Charlier z uwzględnieniem ekscesu i skośności rozkładu .
Przykład IIa.5 [ Żelbetowa rama portalowa. Metoda uogólnionej korelacji ]
Wyznaczyć niezawodność ramy portalowej (rys.P6-1), złożonej z 8-miu elementów: 1- mechanizm zniszczenia dolnego zbrojenia rygla, 2- mechanizm zniszczenia ściskanego betonu, 3- mechanizm zniszczenia przekroju na ścinanie, 4 – słup, 5, 6 – stopa słupa, 7- kielich słupa, 8 – podłoże gruntowe .

Rys.P6-1. Żelbetowa rama portalowa , poddana działaniu wiatru i obciążeń pionowych: A- rygiel, B-słup, C-fundament
Niezawodności poszczególnych elementów (mechanizmów zniszczenia) wynoszą:
[$p_{s1};…; p_{s8} $]=[99,8; 99,9; 99,6; 95,1; 92; 95,9; 99,9; 99,7]%, a współczynniki korelacji
[$\rho_{1,2};…\rho_{7,8}$]=[0,38; 0,34; 0,58; 0,8; 0,7; 0,9; 0,8].
Dla poszczególnych podsystemów mamy:
podsystem A (rygiel):
($\ref{129}$) → $\rho_m=(0,39+0,35+0,58)/3=0,44$,
($\ref{89$) → $\rho \approx 0$,
($\ref{129}$) → $p_{sA}=0,998\cdot 0,999\cdot 0,996=0,993$
podsystem B (słup):
($\ref{129}$) → $\rho_m=(0,8+0,7+0,93)/3=0,81$,
($\ref{89$) → $\rho \approx 0,81\{ 2-[0,81+ \cfrac{(1-0,81)(3-log3)}{1-0,1\cdot 0,81^2(3-log2)^2}]\}=0,21$,
($\ref{129}$) → $p_{sB} \approx 0,21 \cdot 0,92+(1-0,21)[1-(1-0,951)(1-0,92)(1-0,959)] \approx 0,9831$
podsystem C (fundamenty):
($\ref{89$) → $\rho \approx 0,8\{ 2-[0,8+ \cfrac{(1-0,8)(3-log 2)}{1-0,1\cdot 0,8^2(3-log2)^2}]\}=0,59$,
($\ref{129}$) → $p_{sB} \approx 0,59\cdot 0,997+(1-0,59)\cdot 0,999 \cdot 0,997 \approx 0,9966$
System (Rama=A+B+C):
Podsystemy są losowo niezależne, więc należy je traktować jako system szeregowy z punktu widzenia niezawodności. Na podstawie formuły (20) mamy:
$p_s=0,993 \cdot 0,9831 \cdot 0,9966=0,9729$.
Przykład IIa.6 [Bikonstrukcja (sprzężone dźwigary płaskie). Metoda uogólnionej korelacji]
Na prostym przykładzie zespołu kratownic płaskich K1, K2 (probwa, lewa) (rys. P7-1) sprzężonych stężeniami T1 (górne i dolne) oraz T2 (pionowe) przeanalizujemy wpływ stężeń na niezawodności bikonstrukcji.

Rys. P7-1 Bikonstrukcja: kratownice K1, K2 sprzężone stężeniami T1, T2
Analiza wpływu stężeń na nielosową nośność bikonstrukcji
Mechanizmy zniszczenia ustroju zależą o konfiguracji obciążeń. Dla dominujących obciążeń pionowych kratownice K1 i K2 są obciążone siłami pionowymi w węzłach pasów górnych. W przypadku rozprzężenia ( braku stężeń T1 i T2) mechanizm zniszczenia kratownicy K1 (lub K2) pokazano na rys. Rys P7-2 .

Rys. P7-2. Mechanizm zniszczenia kratownicy K1 pod obciążeniami pionowymi (kratownica przed zniszczeniem – szara, po zniszczeniu -niebieska). Zniszczenie polega na utracie płaskiej postaci zginania
Obraz z rys. P7-2 uzyskano dla kratownicy o wysokości 3 m, rozpiętości 5×3=15 m, obciążonej siłami skupionymi V=23 kN w każdym węźle górnym i równoważnymi siłami poziomymi od imperfekcji H=V/100=0,23 kN i po przeprowadzeniu obliczeń 2-rzędu $P-\Delta$.
Dla prętów wykonanych z RP 200x100x5-S355 (większy wymiar rury w pionie), czyli o sztywności osiowej
$ EA=2,1 \cdot 10^5 \cdot 28,36 \cdot 10^{-4}=5,96 \cdot 10^2 MN$ (P7-1)
(moduł Younga stali $E=2,1 \cdot 10^5 MPa$ ; pole przekroju dla RP 200x100x5: $A=28,36 cm^2$)
Obliczenia wykazały) (rys. P7-3), że krytycznym punktem konstrukcji jest pas dolny przy podporze, który przy uwzględnieniu zjawisk niestateczności i innych warunków normowych jest pod obciążeniem porównawczym V=23 kN wytężony w 90,9 %.
Oznacza to, że obciążenie można w zwiększyć o 1/90,9%=1,100, czyli do wartości $V=1.1 \cdot 23=25,3 kN$. Graniczny mnożnik obciążenia (nośność konstrukcji ) wynosi:
$\Lambda=1,10$, (P7-2)
Przemieszczenia końca wspornika wynoszą: pionowe $\delta_z= 22 mm$, a boczne $\delta_y=18 \cdot \delta_z$ przy 100x mniejszej sile poziomej. Skrócenie pręta (od spaczenia 2- rzędu) wynosi $\delta_x= \cfrac{\delta_z} {15}$.

Rys. P7-3. Sprzężone kratownice płaskie: a) stężeniem górnym T1, b) stężeniem czołowym T2, c) stężeniami T1+T2, d) stężeniami T1+T2+T1* (stężone dolne pasy)
W tab. P7-1 zestawiono nośności bikonstrukcji sprężonej stężeniami w układach z rys. P7-3.
Tab.P7-1. Wpływ stężeń bikonstrukcji na jej nośność $\Lambda$

Sprzężenie pasów górnych stężeniem T1 prowadzi do wzrostu nośności $\cfrac{2,0} {1,105} = 81%$. Natomiast sprzężenie czoła stężeniem T2 o 63%, a stężeniami T1+T2 o 94%. Sprzężenie pasów dolnych jest niekorzystne z powodu nadmiernego skrępowania bikonstrukcji.
Nośność bikonstrukcji stężonej przez T1+T2 zwiększyła się dwukrotnie w stosunku do rozprzężonej kratownicy płaskiej. Należy zwrócić uwagę na to, że efekt taki uzyskano przy obciążeniu każdego węzła identyczną siłą – to znaczy sumaryczne obciążenie bikonstrukcji jest dwa razy większe od obciążenie kratownicy płaskiej.
Wpływ stężeń T1 i T2 na niezawodność bikonstrukcji
Przenalizujemy wpływ stężeń T1 i T2 niezawodności bikonstrukcji.
Przyjmiemy, że informacje o stężeniu o zadanym układzie geometrycznym są zintegrowane w jednej wejściowej zmiennej losowej X, którą jest sztywność osiowa pręta stężenia. Natomiast zmienną wyjściową $Y$ jest nośność konstrukcji $\Lambda$.
$ X=EA$ \quad ; \quad $Y=\Lambda$ (P7-3)
gdzie:
E jest moduł Younga,
A pole przekroju pręta
$\Lambda$ mnożnik obciążenia przy którym konstrukcja przestaje spełniać warunki graniczne.
Wpływ stężeń T1
Rozważmy najpierw wpływ tylko stężeń T1. Brak stężeń T1 oznacza realizację bikonstrukcji ze stężeniami o zerowej sztywność (EA=0). Natomiast realizacje nośności bikonstrukcji o sztywności nominalnej zestawiono w tab.P7-1.
Dla tych dwóch punktów sporządzono nielosową zależność nośności konstrukcji od sztywności stężeń T1 i pokazano ją na rys. P7-4.

Rys. P7-4 Zależność nośności konstrukcji $\Lambda$ od sztywności $EA$ stężeń T1
Funkcję stanu granicznego $Y=g (X)$ w tym przypadku opisuje prosta
$ Y=\varphi (X)=1,1+1,5 \cdot 10^{-3} X $ (P7-4)
W przypadku większej liczby punktów obliczeniowych dokładność wyznaczenia zależności $EA \to \Lambda$ zwiększy się. Funkcję ciągłą w tych przypadkach zaleca się wyznaczać procedurami metody minimów kwadratów (metodami regresji) dla funkcji sklejanych z odcinków parabol. Procedura ogólna będzie przedmiotem innego opracowania. W tym przypadku wyznaczamy podstawowy tok postępowania i nie będziemy rozszerzać rozważań na okoliczności poboczne.
Parametry statystyczne zmiennej wejściowej X=EA, określimy na podstawie publikowanych wyników badań dla modułu Younga oraz pola przekroju profili stalowych :
moduł Younga E: $\mu_E=2,1 10^5 MPa$; $v_E=1,5%$,
współczynnik zmienności długości ścianki: $v_l=3%$
współczynnik zmienności grubości ścianki: $v_t=2%$
pole przekroju A: $\mu_A= 28,36 cm^2$ ( z tablic producenta); $v_A= \sqrt{4( 3^2\%+2^2\%)}=3,6\%$ (cztery ścianki rury prostokątnej)
sztywność EA:
$ (P7-1) \to $ $\mu_{EA}=5,96 \cdot 10^2 \, kN $;
$v_{EA}=\sqrt{ 1,5^2+3,6^2}=3,6 \%$;
$\sigma_x=v_{EA} \cdot \mu_{EA}= 5,96 \cdot 10^2 \cdot 3,6 \%=0,215 \cdot 10^2 =21,5\, kN $,
Powyżej wyrażenia na współczynniki zmienności funkcji otrzymano w drodze linearyzacji, w sposób analogiczny jak pokazano niżej.
W celu zaprezentowania metody, parametry statystyczne funkcji (P7-4) wyznaczymy metodą linearyzacji mimo, że funkcja jest liniowa i można wyznaczyć je z definicji.
$\varphi(x)^{’} = \cfrac {\partial \varphi(X)}{\partial X}= 1,5 \cdot 10^{-3}$
$\sigma_y^2= [\varphi(0^{’}]^2 \cdot \sigma_x^2=(1,5 \cdot 10^{-3})^2\cdot 70,3^2 = 7,4 \cdot 10^{-3}$
Postępując analogicznie, wyznaczamy parametry losowe funkcji wpływu stężeń. W analizie niezawodności istotne jest uwzględnienie zmienności wpływających czynników, co pozwala na dokładniejsze modelowanie ryzyka awarii. Zastosowanie odpowiednich metod statystycznych pozwala na określenie prawdopodobieństwa wystąpienia niepożądanych zdarzeń, co jest niezbędne w projektowaniu i eksploatacji obiektów inżynieryjnych. Właściwe określenie tych parametrów może znacząco wpłynąć na poprobwę bezpieczeństwa i efektywności konstrukcji.
Literatura
________________________________