Kikurato

Интерполяционный полином

218 сообщений в этой теме

http://www.exponenta.ru/soft/mathemat/pinega/a8/a8.asp- вот почему обратил внимание на интегрирование по объемам объектов из интерполяционных полиномов. Хотя Коши запрещает интегрирование особенностей типа 1/x  насколько помню. Из-за чувствительности в области интегрирования, чуть неравномерная и можно получить любое значение. Но в грязной математике получается. Можно предположить кусочно постоянную аппроксимацию в области интегрирования и ее строгую сферичность   :)

Изменено пользователем Fedor

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах


 Ясно... В статье предлагаете численный метод вычисления интегралов для рациональных функций, МКЭ. Нужно будет потом ознакомиться)

 

Хорошие слова  в статье про "в согласии с правилом правого винта или штопора", как раз на сегодняшний день повестка... (у меня праздник, не обычное дело)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я вообще потягивая пивко ее писал. Потому, что в здравом уме никто такие элементы не делал и так не интегрировал вопреки Коши :)

"Чтобы обнаружить место, найти которое невозможно, нужно потеряться! Иначе все бы знали, где оно находится" :)

Изменено пользователем Fedor
1 пользователю понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Беседы с Федором напоминают диалог Миронова и Никулина из фильма "Старики-разбойники".

 

"Вам время тлеть, а мне - цвести" - подытожил Миронов...

 

@@Chardash,

скажите куда, и я вечерком пришлю вам полезную книжку по численным методам.

1 пользователю понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не рой яму другому - учит народ - И не спрашивай по ком звонит колокол :)

Просто метод Ньютона требует передачи информации - "Если я видел дальше других, то потому, что стоял на плечах гигантов" :)

Изменено пользователем Fedor

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@@Chardash,

скажите куда, и я вечерком пришлю вам полезную книжку по численным методам.

куда вам будет удобно, Борман. А что за книжка? На всякий случай мой почтовый ящик admin сбк csu-mps тчк ru Спасибо.

 

пс тут была тема про МКЭ, если информация оттуда, читал тему, есть

Изменено пользователем Chardash

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

@Fedor , подскажите пожалуйста. Кто-то из математиков написал нечто похожее на "в окрестности точки оптимума (мин, или макс) функция убывает медленно", и поэтому вроде не обязательно попасть в самый-самый оптимум. Я забыл к сожалению, кто это писал и как называется такой принцип:worthy:

Изменено пользователем AlexKaz

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Так там же производная в экстремуме равна нулю при гладкости и понятно, что в окрестности при гладкости будет мало отличаться от нуля. Обычно просто разлагают в ряд Тейлора в окрестности и оценивают экстремум по параболе , а если больше одной производной нули, то по первой ненулевой. А близкая к нулю производная и будет говорить и близости к экстремуму и медленное убывание. Но еще бывают и седловые точки, так что еще нужна монотонность второй производной...  

Изменено пользователем Fedor
2 пользователям понравилось это

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Эх, я хоть щас готов сослаться на Ваш месседж в этой теме, но думаю не оценят читающие мою писанину... Придётся за авторством принципа перерыть весь пласт литературы=)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Посмотрите у Канторовича в Функциональном анализе. Хотя думаю, что в силу очевидности вряд ли это имеет специальное название :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
7 часов назад, Fedor сказал:

если больше одной производной нули, то по первой ненулевой.

Вспомнил, что видел где-то рядом как раз поиск номера производной, которая обращается в ноль. Что ж это за книга была... На матан не похоже....

7 часов назад, Fedor сказал:

Хотя думаю, что в силу очевидности вряд ли это имеет специальное название :)

Это я понял=) Но, тысяча чертей, в том предложении стояла чья-то фамилия(лии). Ерунда наверное, но любопытство замучает.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
В 26.09.2016 в 20:14, Chardash сказал:

по численным методам

немного ЧМ. Подробнее здесь https://ru.wikipedia.org/wiki/Метод_Якоби

 

Скрытый текст

#include <iostream>
#include <vector>

#define Eps 0.01

using namespace std;

class LinearSystem
{
public:
	int dim;
	vector<vector<double> > A;
	vector<double> F;
	vector<double> X;

	void solveEq();
	void consTerms(vector<double>);
	void coeffSys(vector<vector<double> >);
	void watch_X(vector<double>, int);

	LinearSystem(int N) {

		dim = N;
		A.resize(dim);
		F.resize(dim);
		X.resize(dim);


		for (int i = 0; i<N; i++) {
			A[i].resize(N);
		}

	}

	~LinearSystem();
};

LinearSystem::~LinearSystem(){}

void LinearSystem::consTerms(vector<double> F)
{
	for (int i = 0; i < dim; i++)
		cout << F[i] << endl;
	cout << "-***-***--***--***-";
	cout << endl;
}


void LinearSystem::coeffSys(vector<vector<double> > A)
{
	for (int i = 0; i < dim; i++) {
		for (int j = 0; j < dim; j++)
			cout << A[i][j] << " ";
		cout << endl;
	}
	cout << endl;
}

void LinearSystem::watch_X(vector<double> F, int size)
{

	for (int i = 0; i<size; i++)
	{
		cout << F[i] << "; ";
	}
	cout << endl;
}

void LinearSystem::solveEq()
{
	int k = 0;
	int N = dim;
	int j;

	vector<double> Xn(N);

	double norm;

	do {
		for (int i = 0; i < N; i++)
		{
			Xn[i] = F[i];
			for (j = 0; j < N; j++)
			{
				if (i != j)
					Xn[i] -= A[i][j] * X[j];
			}
			Xn[i] /= A[i][i];
		}
		norm = fabs(X[0] - Xn[0]);
		for (int h = 0; h < N; h++) {
			if (fabs(X[h] - Xn[h]) > norm)
				norm = fabs(X[h] - Xn[h]);
			X[h] = Xn[h];
		}

		k++;
		cout << "X: "; watch_X(X, N);
		cout << "iteration: " << k << endl;
		cout << "norma: " << norm << endl;
		cout << endl;
	} while (norm > Eps);
}

int main()
{
	int size = 3;
	LinearSystem *p = new LinearSystem(size);

	p->A =
	{
		{ 10.0, 1.0, 1.0 },
		{ 2.0, 10.0, 1.0 },
		{ 2.0, 2.0, 10.0 }
	};

	p->F = { 12.0, 13.0, 14.0 };

	p->solveEq();

	getchar();
	return 0;
}

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В Ansys  убрали все итерационные методы как неэффективные. Остался только сопряженных градиентов в предобуславливателем. Раньше были итерационные популярны и активно изучались их свойства в основном для метода сеток... :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
8 минут назад, Fedor сказал:

В Ansys  убрали все итерационные методы как неэффективные. Остался только сопряженных градиентов в предобуславливателем. Раньше были итерационные популярны и активно изучались их свойства в основном для метода сеток... :)

Делал и сопряжённых :rolleyes: и сеточные тоже делал. Посложней получился код, пока нет времени оптимизировать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Попробуйте предобуславливатели разные делать. Лучший предобуславливатель - обратная матрица. Она сразу превращает эллипсоид в сферу и сопряженные градиенты попадают в решение за один шаг . Я экспериментировал в Math  - написал код и просто портил обратную матрицу и смотрел как сходится МСГ с предобуславливателем. Помню даже статью почти написал об этом, да потом текст потерял, а заново исследовать уже не захотел. :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
В 25.12.2016 в 09:05, Fedor сказал:

Лучший предобуславливатель - обратная матрица. Она сразу превращает эллипсоид в сферу и сопряженные градиенты попадают в решение за один шаг .

Выглядит странным сначала перейти к итеративному решателю, чтобы избежать долгоиграющих вычислений обратной матрицы, а потом использовать обратную матрицу в качестве предобуславливателя. Какой-то замкнутый круг)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ничего странного. Это же просто для исследования свойств предобуславливателя. Сначала определяем какой он должен быть идеальный, потом начинаем портить и смотреть как и что влияет. Например для начала можно в его качестве взять обратную к диагональной. Уже будет как-то улучшать свойства. Потом можно выделить например трехдиагональную и ее тоже легко обратить и брать в качестве предобуславливателя. И так далее экспериментировать.  Предобуславливателей же много разных можно придумать и придумано уже . Встает вопрос - какой же лучший. Ответ - обратная матрица. Чем ближе по свойствам к ней, тем лучше. Просто попытка сконструировать меру качества предобуславливателя   :)

В алгебре часто оперируют с обратной матрицей как теоретическим концептом, а реально его не вычисляют ...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Забыл добавить. Нам же обычно не нужна обратная матрица, а нужно произведение ее на какой-то вектор, то есть в предобуславливании мы  стараемся повернуть  вектор приближения в направлении центра эллипсоида для квадратичной формы матрицы, а уж величину шага можно и обычной интерполяцией найти как обычно. :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Создайте аккаунт или войдите для комментирования

Вы должны быть пользователем, чтобы оставить комментарий

Создать аккаунт

Зарегистрируйтесь для получения аккаунта. Это просто!


Зарегистрировать аккаунт

Войти

Уже зарегистрированы? Войдите здесь.


Войти сейчас

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу