где А – матрица коэффициентов; b– вектор правых частей системы.
Преобразуем (3.21) к виду, удобному для итераций:
х = Вх + с. (3.22)
Тогда метод простой итерации определяется формулой:
xk+1= Bxk + c, k = 0, 1, ... , (3.23)
где начальное приближение x0 задано.
В качестве критерия сходимости метода итераций обычно применяют условие
||xk+1- xk|| £ ε.
Сформулируем теоремы об условиях сходимости метода простых итераций.
Теорема 3.1 (достаточное условие сходимости).Если ||В|| < 1, то система (3.21) имеет единственное решение, а итерационный метод (3.23) сходится к решению со скоростью геометрической прогрессии.
Теорема 3.2. (необходимое и достаточное условие сходимости).Пусть система (3.22) имеет единственное решение. Итерационный процесс (3.23) сходится к решению системы (3.22) тогда и только тогда, когда все собственные значения матрицы В по модулю меньше единицы.
Теоремы 3.1 и 3.2 не дают способов преобразования произвольной системы линейных уравнений к виду (3.22) так, чтобы метод итераций (3.23) при этом сходился к решению. Эти теоремы имеют важное теоретическое значение. На практике для проверки условия сходимости метода итераций более полезна теорема 3.1, а теорему 3.2 удается использовать тогда, когда собственные значения матрицы В известны. Задача определения собственных значений матрицы в общем случае сложнее, чем задача решения системы линейных уравнений.
Для преобразования системы уравнений к виду, удобному для итераций, можно умножить систему (3.21) на матрицу D = А-1- ε, где ε – произвольная матрица. Тогда система примет вид (3.22)
х= Вх + с, В = εА,с = Db(3.24)
и матрица В будет удовлетворять теореме 3.1, если выбрать элементы матрицы ε достаточно малыми по модулю. Однако этот прием не выгоден, так как для вычисления обратной матрицы А-1необходимо выполнить не меньше операций, чем при решении самой системы.
При небольшом числе уравнений систему иногда удается привести к виду, удобному для итераций, с помощью нескольких преобразований.
Далее будут рассмотрены разностные методы решения краевых задач для обыкновенных дифференциальных уравнений и уравнений в частных производных, которые приводят к решению систем линейных уравнений с большим числом неизвестных. Учитывая специфику таких систем, часто удается построить эффективные итерационные методы их решения.
Пусть требуется решить систему уравнений (3.1):
(3.25)
Выразим из первого уравнения переменную х1 из второго – х2и т. д.:
Пусть k-e приближение к решению обозначено как хk= . Подставим его в правую часть полученной системы и выразим следующее приближение xk+1= .В отличие от метода итераций, метод
Зейделя использует при вычислении уже найденные компоненты вектора хk+1.
Расчетные формулы метода Зейделя можно записать в виде
(3.26)
Теорема 3.3(достаточные условия сходимости).Пусть при всех i для коэффициентов системы уравнений (3.25) выполняются условия
. (3.27)
Тогда метод Зейделя сходится и выполняется неравенство
||xk+1 - xk||1 £ q||xk – x*||1 (3.28)
где х* – точное решение системы (3.25).
Если матрица А удовлетворяет условию (3.27), говорят, что А – матрица с диагональным преобладанием.
Теорема 3.4(достаточные условия сходимости).Пусть матрица А системы (3.1) – вещественная, симметричная и положительно определенная. Тогда метод Зейделя сходится.
3.3.Погрешность решения и обусловленность системы уравнений
Рассмотрим влияние погрешности правой части и свойств матрицы системы линейных уравнений на погрешность решения. Пусть правая часть системы задана приближенно, с погрешностью η:
Ах = b1,b1 = b + η.
Пусть х1 решение неточно заданной системы Ах = b1,х– решение точной системы Ах = b.Обозначим погрешность решения через r = х1 - х.Тогда можно запить Ах1= b1в виде А (х + r) = b + η,и Аr= η.
Определение 3.5. Мерой обусловленности системы называется число
. (3.29)
Мера обусловленности системы равна верхней грани отношения относительной погрешности решения к относительной погрешности правой части. Из формулы (3.29) следует неравенство
(3.30)
Если мера обусловленности системы принимает большое значение, это значит, что небольшая погрешность правой части может привести к большой погрешности решения, т. е. полученное приближенное решение окажется непригодным.
Учитывая, что r = А-1η,можно получить формулу вычисления меры обусловленности системы:
(3.31)
Определение 3.6. Мерой обусловленности матрицы А называется число
. (3.32)
Для вычисления меры обусловленности матрицы можно с помощью (3.31) получить формулу
. (3.33)
Учитывая (3.30), можно записать
(3.34)
Неравенство (3.34) связывает относительные погрешности правой части и решения системы через свойства матрицы системы.
Определение 3.7. Системы уравнений и матрицы называются плохо обусловленными,если их меры обусловленности принимают большие значения, и хорошо обусловленными,если меры обусловленности принимают малые значения.
Понятно, что при решении хорошо обусловленных систем малые погрешности правой части приводят к малым погрешностям решения, а плохо обусловленные системы уже нельзя решать обычными методами.
Вычисление определителя матрицы является классическим примером задач, для решения которых важно найти эффективные алгоритмы.
При непосредственном раскрытии определителя квадратной матрицы
n-го порядка нужно найти сумму n! слагаемых, каждое из которых равно произведению n элементов матрицы, взятых по одному с каждого столбца и каждой строки, т. е. нужно выполнить порядка n!n операций. Число операций для вычисления определителя 100-го порядка приблизительно равно 100! × 100 = 100157,9 × 100. Такое число операций не способен выполнить за приемлемое время ни один из существующих суперкомпьютеров. Тем не менее современные компьютерные программы вычисления определителей справляются с матрицами и более высокого порядка, используя экономичные алгоритмы. Одним из таких алгоритмов является метод Гаусса.
Если матрица приведена к диагональному или треугольному виду, то ее определитель равен произведению диагональных элементов.
Для преобразования матрицы к треугольному виду можно применить метод Гаусса, который потребует порядка 2n3/3 операций.
Для n = 100 имеем 2n3/3 = 0,67 ×106. На такой объем арифметических операций современный персональный компьютер тратит не более 1 с.
Если внимательно проанализировать метод Гаусса, то можно увидеть, что он фактически позволяет одновременно с приведением матрицы коэффициентов к треугольному виду, вычислить определитель этой матрицы. Действительно, определитель матрицы коэффициентов системы уравнений (3.18) равен произведению диагональных элементов, т. е. единице. С другой стороны, если к любой строке матрицы прибавить другую строку, умноженную на число, определитель не изменится. А если строку матрицы разделить на число, отличное от нуля, то определитель матрицы разделится на то же число. Отсюда следует, что в результате преобразований к виду (3.18), определитель матрицы коэффициентов системы уравнений (3.9) изменился на множитель, который равен произведению ведущих элементов, т. е. мы получаем формулу для вычисления определителя
.
Метод Гаусса также эффективен и для вычисления обратной матрицы. Вычисление обратной матрицы можно рассматривать как частный случай решения совокупности систем линейных уравнений с одной и той же матрицей коэффициентов и разными правыми частями. В этом случае преобразования, которые применяются к столбцу правых частей системы, нужно применить к нескольким столбцам правых частей.