- Основы многомерных методов анализа. Факторный анализ

Презентация "Основы многомерных методов анализа. Факторный анализ" по математике – проект, доклад

Слайд 1
Слайд 2
Слайд 3
Слайд 4
Слайд 5
Слайд 6
Слайд 7
Слайд 8
Слайд 9
Слайд 10
Слайд 11
Слайд 12
Слайд 13
Слайд 14
Слайд 15
Слайд 16
Слайд 17
Слайд 18
Слайд 19
Слайд 20
Слайд 21
Слайд 22
Слайд 23
Слайд 24
Слайд 25
Слайд 26
Слайд 27
Слайд 28
Слайд 29
Слайд 30
Слайд 31
Слайд 32
Слайд 33
Слайд 34
Слайд 35
Слайд 36
Слайд 37
Слайд 38
Слайд 39

Презентацию на тему "Основы многомерных методов анализа. Факторный анализ" можно скачать абсолютно бесплатно на нашем сайте. Предмет проекта: Математика. Красочные слайды и иллюстрации помогут вам заинтересовать своих одноклассников или аудиторию. Для просмотра содержимого воспользуйтесь плеером, или если вы хотите скачать доклад - нажмите на соответствующий текст под плеером. Презентация содержит 39 слайд(ов).

Слайды презентации

Занятие 9. Основы многомерных методов анализа. Факторный анализ.
Слайд 1

Занятие 9

Основы многомерных методов анализа. Факторный анализ.

Методы многомерного анализа (multivariate analyses) Предназначены для анализа многомерных данных. Много независимых переменных – Многофакторная ANOVA Множественная регрессия. Много зависимых переменных (или переменных, которые нельзя разделить на зависимые и независимые) – multivariate analyses. В м
Слайд 2

Методы многомерного анализа (multivariate analyses) Предназначены для анализа многомерных данных

Много независимых переменных – Многофакторная ANOVA Множественная регрессия

Много зависимых переменных (или переменных, которые нельзя разделить на зависимые и независимые) – multivariate analyses

В массиве данных n объектов, для каждого измерено p переменных.

multivariate analyses. Многомерное распределение. Многомерные методы в большой степени описательны, но если предполагается тестирование гипотез, надо чтобы данные соответствовали многомерному нормальному распределению. Его «центр» - центроид (в одномерном - среднее значение). Как оценить разброс в н
Слайд 3

multivariate analyses

Многомерное распределение

Многомерные методы в большой степени описательны, но если предполагается тестирование гипотез, надо чтобы данные соответствовали многомерному нормальному распределению.

Его «центр» - центроид (в одномерном - среднее значение). Как оценить разброс в нём? (в одномерном – суммы квадратов и дисперсия).

У нас есть: 1) изменчивость внутри каждой переменной; 2) взаимозависимость переменных.

Как же работать с этими разными изменчивостями?

Используют особые таблицы - матрицы. Одна матрица у нас уже есть – матрица исходных данных (Y). Clevenger & Waltho изучали, сколько раз и как (на велосипеде-верхои-пешком) люди переходят дорогу в заповеднике на разных 11 переходах.
Слайд 4

Используют особые таблицы - матрицы.

Одна матрица у нас уже есть – матрица исходных данных (Y).

Clevenger & Waltho изучали, сколько раз и как (на велосипеде-верхои-пешком) люди переходят дорогу в заповеднике на разных 11 переходах.

Матрица (p x p) с суммами квадратов на диагонали (sums-of-squares-and-cross-products, SSCP). Матрица дисперсий и ковариаций (covariances, C) – предыдущая матрица, где все элементы поделили на число степеней свободы (n-1). Сумма элементов её диагонали – сумма дисперсии.
Слайд 5

Матрица (p x p) с суммами квадратов на диагонали (sums-of-squares-and-cross-products, SSCP)

Матрица дисперсий и ковариаций (covariances, C) – предыдущая матрица, где все элементы поделили на число степеней свободы (n-1). Сумма элементов её диагонали – сумма дисперсии.

Матрица корреляций (correlation matrix, R) – получится, если в предыдущей матрице каждый элемент поделить на его стандартное отклонение. На главной диагонали – единицы, все остальные элементы – коэффициенты корреляции
Слайд 6

Матрица корреляций (correlation matrix, R) – получится, если в предыдущей матрице каждый элемент поделить на его стандартное отклонение.

На главной диагонали – единицы, все остальные элементы – коэффициенты корреляции

Фундаментальная процедура в многомерном анализе – получение линейных комбинаций исходных переменных, так, что общая изменчивость по-новому распределяется между ними. Для каждого i-го (от 1 до n) объекта и p исходных переменных можно рассчитать значение новой k-той переменной как. Здесь y – значения
Слайд 7

Фундаментальная процедура в многомерном анализе – получение линейных комбинаций исходных переменных, так, что общая изменчивость по-новому распределяется между ними.

Для каждого i-го (от 1 до n) объекта и p исходных переменных можно рассчитать значение новой k-той переменной как

Здесь y – значения исходных переменных для данного объекта, с – коэффициенты, показывающие величину вклада данной исходной переменной в новую переменную. В некоторых моделях добавляют ещё константу - intercept

Новые переменные называются дискриминантными функциями, каноническими функциями, главными компонентами (principal components) или факторами (в зависимости от типа анализа). Линейная комбинация аналогична уравнению линейной регрессии.

Новые переменные формируют так, чтобы первая объясняла максимум изменчивости исходных переменных, вторая – максимум оставшейся изменчивости, и.т.д., но так, чтобы новые переменные не коррелировали друг с другом. Так можно получить р новых переменных, но большая часть дисперсии должна сосредоточиться
Слайд 8

Новые переменные формируют так, чтобы первая объясняла максимум изменчивости исходных переменных, вторая – максимум оставшейся изменчивости, и.т.д., но так, чтобы новые переменные не коррелировали друг с другом. Так можно получить р новых переменных, но большая часть дисперсии должна сосредоточиться в нескольких первых.

Собственное значение ( ) = eigenvalue – показатель того, какая доля общей изменчивости приходится на компоненту. Это популяционные параметры, у них есть выборочные оценки – l Их сумма = сумме дисперсий (если мы их строим на основе матрицы ковариаций), или = числу исходных переменных (для матрицы корреляций). Собственный вектор = eigenvector – просто список коэффициентов при исходных переменных для каждой компоненты.

Выделим новые компоненты для переходов: В примере используется матрица ковариаций. Значения собственных значений для новых переменных. Коэффициенты для новых переменных (столбец = eigenvector)
Слайд 9

Выделим новые компоненты для переходов:

В примере используется матрица ковариаций

Значения собственных значений для новых переменных

Коэффициенты для новых переменных (столбец = eigenvector)

Теперь можно для каждого конкретного перехода посчитать значения новых переменных = компонент. И, например, использовать в дальнейшем анализе. Мы рассмотрели способ получения компонент (и их значений для объектов) из матриц ковариаций или корреляций (p x p). – R-mode analysis. Есть другой способ: по
Слайд 10

Теперь можно для каждого конкретного перехода посчитать значения новых переменных = компонент. И, например, использовать в дальнейшем анализе.

Мы рассмотрели способ получения компонент (и их значений для объектов) из матриц ковариаций или корреляций (p x p). – R-mode analysis. Есть другой способ: построить матрицу «корреляций» = «дистанций» между объектами (n x n) в исходных переменных, и из линейных комбинаций объектов рассчитать значения новых компонент, и затем найти eigenvectors - Q-mode analysis.

Разные пути используются в разных типах многомерного анализа, но вообще-то они алгебраически связаны.

Матрица «дистанций» меду объектами (dissimilarity matrix):
Слайд 11

Матрица «дистанций» меду объектами (dissimilarity matrix):

Есть много показателей «дистанции» между объектами (самый очевидный – евклидовы расстояния). Дистанции можно посчитать между объектами с любыми переменными, в т.ч. Качественными и даже бинарными!
Слайд 12

Есть много показателей «дистанции» между объектами (самый очевидный – евклидовы расстояния).

Дистанции можно посчитать между объектами с любыми переменными, в т.ч. Качественными и даже бинарными!

Подготовка данных для многомерного анализа. Трансформация данных: нормализует распределения и делает отношения между переменными линейными (важно для выделения компонент). Логарифмическая, квадратного корня и пр. можно предварительно построить картинки и оценить сходство – различие между объектами (
Слайд 13

Подготовка данных для многомерного анализа

Трансформация данных: нормализует распределения и делает отношения между переменными линейными (важно для выделения компонент). Логарифмическая, квадратного корня и пр. можно предварительно построить картинки и оценить сходство – различие между объектами (лица Чернова, «звёздный» график). важно избавить от аутлаеров! Многомерные аутлаеры: их можно найти с помощью дистанций Махаланобиса (квадрат расстояния от объекта до центроида). если переменные измерены в разных шкалах, принципиально использовать матрицу корреляций (не ковариаций) для получения компонент. Если нет – лучше пробовать оба варианта. пропущенные измерения – не casewise, а pairwise deletion.

Лица Чернова. «звёздный» график – star plot
Слайд 14

Лица Чернова

«звёздный» график – star plot

ФАКТОРНЫЙ АНАЛИЗ. У нас в руках измерения большого числа переменных для выборки объектов. Наши цели: Уменьшить число исходных переменных с минимальными потерями исходной информации (что, например, уменьшит эффект множественных сравнений); Обнаружить скрытые закономерности в данных, которые не выявля
Слайд 15

ФАКТОРНЫЙ АНАЛИЗ

У нас в руках измерения большого числа переменных для выборки объектов. Наши цели: Уменьшить число исходных переменных с минимальными потерями исходной информации (что, например, уменьшит эффект множественных сравнений); Обнаружить скрытые закономерности в данных, которые не выявляются при анализе отдельных переменных, путём помещения в пространство новых переменных (scaling). Например, выявление реальных действующих факторов (причинно-следственных связей), или просто выявление структуры взаимосвязи переменных.

Анализ главных компонент (principal component analysis, PCA). Factor analysis. У нас есть n объектов и p переменных. Мы собираемся трансформировать переменные в k (от 1 до p) новых главных компонент = факторов. Для каждого объекта мы получим значения этих компонент – z-значения. В анализе – 6 этапов
Слайд 16

Анализ главных компонент (principal component analysis, PCA)

Factor analysis

У нас есть n объектов и p переменных. Мы собираемся трансформировать переменные в k (от 1 до p) новых главных компонент = факторов. Для каждого объекта мы получим значения этих компонент – z-значения. В анализе – 6 этапов.

Этап 0. Подготовка данных к анализу. Проверка распределений на соответствие нормальному; Трансформация данных (напр., логарифмирование некоторых переменных); Исключение аутлаеров. Этап 1. Получение eigenvalues для новых компонент. В программе их получают из матрицы корреляций, их сумма = числу перем
Слайд 17

Этап 0. Подготовка данных к анализу.

Проверка распределений на соответствие нормальному; Трансформация данных (напр., логарифмирование некоторых переменных); Исключение аутлаеров.

Этап 1. Получение eigenvalues для новых компонент

В программе их получают из матрицы корреляций, их сумма = числу переменных. Разумно использовать компоненты, для которых eigenvalues > 1. т.е., число компонент будет меньше числа исходных переменных. Напоминание: они независимы между сбой, т.е., ортогональны.

Этап 2. получение коэффициентов для каждой компоненты.

(Factor Score Coefficients). Они показывают вклад каждой переменной в компоненты. Необязательный этап.

Этап 3. получение factor loadings Это показатели корреляции (Пирсона) компонент с каждой из исходных переменных. Если какие-то переменные почти одинаково коррелируют с несколькими компонентами, можно улучшить структуру компонент: Этап 4. вращение выбранных компонент для получения более чётких связей
Слайд 18

Этап 3. получение factor loadings Это показатели корреляции (Пирсона) компонент с каждой из исходных переменных. Если какие-то переменные почти одинаково коррелируют с несколькими компонентами, можно улучшить структуру компонент:

Этап 4. вращение выбранных компонент для получения более чётких связей с исходными переменными. (чтобы loadings приблизились к 0, 1 или -1). Varimax rotation – самый распространённый и удобный метод.

Этап 5. получение factor loadings после вращения Рассмотрение корреляций новых, повёрнутых компонент с исходными переменными, понимание их биологического смысла.

Этап 6. получение значений новых переменных для каждого объекта (для дальнейшего анализа.)

Несколько слов о компонентах (факторах): В многомерном пространстве первая компонента располагается вдоль наибольшей дисперсии, т.е., это почти аналог линии линейной регрессии. Компоненты взаимно перпендикулярны Компоненты – линейные комбинации исходных переменных Если исходные переменные не коррели
Слайд 19

Несколько слов о компонентах (факторах):

В многомерном пространстве первая компонента располагается вдоль наибольшей дисперсии, т.е., это почти аналог линии линейной регрессии. Компоненты взаимно перпендикулярны Компоненты – линейные комбинации исходных переменных Если исходные переменные не коррелируют между собой, не получится собрать много дисперсии в первых компонентах, т.е., уменьшить их число. Сколько компонент оставлять? Это решает исследователь так, чтобы обеспечить биологическую интерпретируемость результатов. Нет смысла оставлять компоненты, с которыми не коррелирует сильно ни одна исходная переменная. Правило «eigenvalue =1».

Вращение компонент (факторов). Выбранные нами факторы (их мало) поворачивают для получения более чёткой структуры переменных. Обычно используют ортогональное вращение – факторы остаются перпендикулярными друг другу. Например, varimax. Не ортогональное вращение – oblique rotation, у него есть свои по
Слайд 20

Вращение компонент (факторов)

Выбранные нами факторы (их мало) поворачивают для получения более чёткой структуры переменных. Обычно используют ортогональное вращение – факторы остаются перпендикулярными друг другу. Например, varimax. Не ортогональное вращение – oblique rotation, у него есть свои поклонники, но этот метод не прост.

Анализ остатков – residuals – имеет смысл посмотреть, насколько много информации мы потеряли при сокращении числа переменных. На основе наших факторов генерируются корреляции между исходными переменными и сравниваются с реальными корреляциями. Если разница где-то велика, мы взяли слишком мало факторов.

Мы изучаем пищевые предпочтения павианов и разработали комплексные оценки привлекательности разных типов пищи для каждой особи. Павианы едят разную еду, поэтому типов пищи – 10. особей в анализе – 100. Но реальных факторов, определяющих эти предпочтения, наверняка меньше. Мы хотим узнать, сколько (и
Слайд 21

Мы изучаем пищевые предпочтения павианов и разработали комплексные оценки привлекательности разных типов пищи для каждой особи. Павианы едят разную еду, поэтому типов пищи – 10. особей в анализе – 100. Но реальных факторов, определяющих эти предпочтения, наверняка меньше.

Мы хотим узнать, сколько (и каких) факторов определяют пищевые предпочтения павианов.

Итак, Мы хотим Найти те факторы, которые определяют изменчивость (объясняют действие) большого количества измеренных нами реальных переменных. Подразумевается, что таких факторов гораздо меньше, чем исходных переменных.
Слайд 22

Итак, Мы хотим Найти те факторы, которые определяют изменчивость (объясняют действие) большого количества измеренных нами реальных переменных. Подразумевается, что таких факторов гораздо меньше, чем исходных переменных.

Поясняющий пример: Мы изучаем кроликов. Сначала взвешиваем каждого из 100 кроликов на безмене, потом на весах с гирьками, потом на электронных кухонных весах. Потом мы хотим исследовать влияние питания на вес кроликов. Неужели мы возьмём в анализ все три переменные? Ведь, очевидно, вес кролика – тол
Слайд 23

Поясняющий пример: Мы изучаем кроликов. Сначала взвешиваем каждого из 100 кроликов на безмене, потом на весах с гирьками, потом на электронных кухонных весах.

Потом мы хотим исследовать влияние питания на вес кроликов. Неужели мы возьмём в анализ все три переменные? Ведь, очевидно, вес кролика – только одна его характеристика, а не три. Скорее всего, мы захотим превратить все переменные в одну.

Подразумевается, что наши реально измеренные переменные являются линейными комбинациями этих подлежащих факторов. Примерно так будет проходить новая ось OX – первая компонента.
Слайд 24

Подразумевается, что наши реально измеренные переменные являются линейными комбинациями этих подлежащих факторов.

Примерно так будет проходить новая ось OX – первая компонента.

Итак, мы изучаем питание павианов. Типов пищи у павианов 10: апельсины, бананы, яблоки, помидоры, огурцы, мясо, курица, рыба, насекомые, червяки. Мы измеряем привлекательность пищи каждого типа, для каждого зверя. Сколько факторов скрывается за разными предпочтениями павианов в еде?
Слайд 25

Итак, мы изучаем питание павианов. Типов пищи у павианов 10:

апельсины, бананы, яблоки, помидоры, огурцы, мясо, курица, рыба, насекомые, червяки.

Мы измеряем привлекательность пищи каждого типа, для каждого зверя. Сколько факторов скрывается за разными предпочтениями павианов в еде?

Principal component analysis. (прежде, чем проводить факторный анализ, рекомендуется построить матрицу корреляций: исключить переменные, слишком сильно коррелирующие с другими)
Слайд 26

Principal component analysis

(прежде, чем проводить факторный анализ, рекомендуется построить матрицу корреляций: исключить переменные, слишком сильно коррелирующие с другими)

Просмотрим матрицу корреляций: Не должно быть слишком сильно коррелирующих друг с другом переменных (иначе матрица не может быть транспонирована: matrix ill-conditioning). Можно задать min количество дисперсии, которое должен объяснять фактор, чтобы его включили в анализ (обычно min = 1, что соответ
Слайд 27

Просмотрим матрицу корреляций: Не должно быть слишком сильно коррелирующих друг с другом переменных (иначе матрица не может быть транспонирована: matrix ill-conditioning)

Можно задать min количество дисперсии, которое должен объяснять фактор, чтобы его включили в анализ (обычно min = 1, что соответствует случайной изменчивости одной переменной (критерий Кайзера))

Собственные значения (eigenvalues)– определяют, какую долю общей дисперсии объясняет данный фактор.
Слайд 28

Собственные значения (eigenvalues)– определяют, какую долю общей дисперсии объясняет данный фактор.

Этот график показывает, что первые два фактора лучше остальных, они объясняют большую часть общей изменчивости (the scree test).
Слайд 29

Этот график показывает, что первые два фактора лучше остальных, они объясняют большую часть общей изменчивости (the scree test).

Посмотрим, как полученные факторы связаны с реальными переменными
Слайд 30

Посмотрим, как полученные факторы связаны с реальными переменными

оставим две компоненты и проведём вращение, чтобы улучшить их структуру.
Слайд 31

оставим две компоненты и проведём вращение, чтобы улучшить их структуру.

Фактор 1 в основном связан с растительной пищей, фактор 2 – с животной. После вращения факторов их структура становится более ясной: Итак, пищевые предпочтения павианов составлены из двух основных факторов – отношением к животной и растительной пище.
Слайд 32

Фактор 1 в основном связан с растительной пищей, фактор 2 – с животной.

После вращения факторов их структура становится более ясной:

Итак, пищевые предпочтения павианов составлены из двух основных факторов – отношением к животной и растительной пище.

Посмотрим, как исходные переменные расположились в пространстве новых факторов
Слайд 33

Посмотрим, как исходные переменные расположились в пространстве новых факторов

Если мы в дальнейшем хотим проводить анализ связи питания павианов с другими переменными, мы можем заменить наши 10 переменных на полученных два фактора.
Слайд 34

Если мы в дальнейшем хотим проводить анализ связи питания павианов с другими переменными, мы можем заменить наши 10 переменных на полученных два фактора.

Требования к выборкам для проведения факторного анализа. Внутри групп должно быть многомерное нормальное распределение (оценка – на основе построения гистограмм частот); Гомогенность дисперсий (для метода главных компонент; не очень критичное требование); Связь переменных должна быть линейной; Разме
Слайд 35

Требования к выборкам для проведения факторного анализа

Внутри групп должно быть многомерное нормальное распределение (оценка – на основе построения гистограмм частот); Гомогенность дисперсий (для метода главных компонент; не очень критичное требование); Связь переменных должна быть линейной; Размер выборки не должен быть меньше 50, оптимальный – ≥100 наблюдений. Между переменными должна быть ненулевая корреляция, но коэффициентов корреляции, близких единице, тоже быть не должно.

Связь с MANOVA и регрессионным анализом. Если мы на самом деле хотим сравнить группы (из объектов с многими переменными) можно провести MANOVA (это тоже многомерный анализ, но он генерирует только одну переменную), а можно сначала факторный анализ, а потом – однофакторные ANOVA (у второго варианта е
Слайд 36

Связь с MANOVA и регрессионным анализом.

Если мы на самом деле хотим сравнить группы (из объектов с многими переменными) можно провести MANOVA (это тоже многомерный анализ, но он генерирует только одну переменную), а можно сначала факторный анализ, а потом – однофакторные ANOVA (у второго варианта есть преимущества). Если мы хотим провести множественный регрессионный анализ, можно сначала сделать факторный анализ для независимых переменных (можно - без сокращения их числа), а потом – регрессионный анализ, убрав проблему скоррелированности исходных переменных.

Principal factor analysis – если PCA генерирует компоненты, объясняющие изменчивость исходных переменных, то PFA генерирует common factors, объясняющие корреляции между переменными. Correspondence analysis – для анализа таблиц сопряжённости (большого числа качественных переменных) . Сумма eigenvalue
Слайд 37

Principal factor analysis – если PCA генерирует компоненты, объясняющие изменчивость исходных переменных, то PFA генерирует common factors, объясняющие корреляции между переменными. Correspondence analysis – для анализа таблиц сопряжённости (большого числа качественных переменных) . Сумма eigenvalues = общей статистике χ2 (называется total intertia). Canonical correlation analysis – если у нас есть два блока переменных и мы хотим анализировать корреляции между ними. Генерирует пары переменных из этих блоков (canonical variates) так, чтобы между ними была максимальная корреляция.

Другие многомерные методы, близкие анализу главных компонент

communality of a variable is the portion that can be reproduced from the respective number of factors

Redundancy analysis – усложнённая версия Canonical correlation analysis, предсказывает линейную комбинацию зависимых переменных из комбинации независимых. Canonical correspondence analysis – расширенный вариант Correspondence analysis, в котором дополнительно учитывается влияние добавочных количеств
Слайд 38

Redundancy analysis – усложнённая версия Canonical correlation analysis, предсказывает линейную комбинацию зависимых переменных из комбинации независимых. Canonical correspondence analysis – расширенный вариант Correspondence analysis, в котором дополнительно учитывается влияние добавочных количественных переменных.

На свете много многомерных методов!

Расширенный вариант PCA в программе. Больше возможностей для манипуляций с переменными, но нет возможности вращения факторов
Слайд 39

Расширенный вариант PCA в программе

Больше возможностей для манипуляций с переменными, но нет возможности вращения факторов

Список похожих презентаций

Основы концепции “глубинного анализа текстов

Основы концепции “глубинного анализа текстов

Контент-анализ: определения. Один из истоков концепции Text Mining – контент-анализ. Понятие контент-анализа, корни которого в психологии и социологии, ...
Алгебра и начала математического анализа

Алгебра и начала математического анализа

УМК "Алгебра и начала анализа" 10 – 11 класс. Профильный уровень. ЦЕЛЬ: Оказать методическую помощь учителям при выборе УМК для работы в профильных ...
Урок алгебры и начал анализа

Урок алгебры и начал анализа

. Эпиграф:. «Кто с детских лет занимается математикой, тот развивает внимание, тренирует свой мозг, свою волю, воспитывает настойчивость и упорство ...
Алгебра и начала анализа "Логарифмическая функция"

Алгебра и начала анализа "Логарифмическая функция"

Содержание. Титульный лист Содержание Определение логарифмической функции Свойства логарифмической функции График логарифмической функции Примеры. ...
Факторный анализ

Факторный анализ

Термин факторный анализ впервые ввел Thurstone, 1931 Факторный анализ в современной статистике - совокупность методов, которые на основе реально существующих ...
Открытый урок по алгебре и началам анализа

Открытый урок по алгебре и началам анализа

Урок- семинар. Цель: Обобщить знания учащихся по данной теме, продемонстрировать различные методы решения иррациональных уравнений, показать умение ...
Применение элементов математического анализа при решении задач

Применение элементов математического анализа при решении задач

- Учиться проводить анализ условия задачи, что помогает поиску способа решения;. Цели урока. - Учиться переводить язык задачи на язык производной ...
Алгебра и начала анализа 10-11 класс

Алгебра и начала анализа 10-11 класс

Числовые функции, заданные формулами y=sin x и y=cos x,называют соответственно - ??? и ???. Числовые функции, заданные формулами y=tg x и y=ctg x, ...
Использование схемы анализа на уроках математики и литературы

Использование схемы анализа на уроках математики и литературы

Буква и цифра, Слово и число, Словесность и математика… - две формы общения человека с миром. Слово – Бог… Математика – Королева наук… Так ли они ...
Задания на построение и анализ функций

Задания на построение и анализ функций

Задания на построение и анализ функций. А это наша комиссия. Районный эксперт по математике. Директор и завуч. Математик Васильева Маргарита Викторовна. ...
Основы тригонометрии

Основы тригонометрии

Этапы развития тригонометрии. Тригонометрия в древности являлась вспомогательным разделом астрономии. Древнегреческие ученые разработали «тригонометрию ...
Основы теории вероятности

Основы теории вероятности

Основные понятия теории вероятностей. Событием называется любой исход опыта, различают следующие виды событий: - случайные - достоверные - невозможные ...
Основы логики. Алгебра высказываний

Основы логики. Алгебра высказываний

Логика. Логика – это наука о формах и способах мышления, позволяющая строить формальные модели окружающего мира, отвлекаясь от содержательной стороны. ...
Основы логики

Основы логики

Комбинаторика Классификация Сравнение Анализ Синтез. КОМБИНАТОРИКА –. перебор возможных вариантов. Из цифр 1, 2, 3 составить возможные двузначные ...
Детерминационный анализ

Детерминационный анализ

Это система методов анализа социологических и социально-экономических данных, в которой задачи обработки и интерпретации ставятся как задачи анализа ...
Основы комбинаторики

Основы комбинаторики

Правило произведения Пусть объект а1 можно выбрать n1, различными способами, после каждого выбора объекта а1 объект а2 можно выбрать n2 различными ...
Дисперсионный анализ

Дисперсионный анализ

Основной целью дисперсионного анализа является исследование значимости различия между средними. Установить различаются ли три группы или более по ...
Задача и пять методов её решения

Задача и пять методов её решения

Введение. Для успешного изучения геометрии необходимо знать не только основные формулы и теоремы, но и владеть различными методами решения задач. ...
Применение вероятностных методов

Применение вероятностных методов

Применение теории вероятности. Что такое вероятность? «Вероятность – возможность исполнения, осуществимости чего-нибудь». Какое определение дает основатель ...
Множественный регрессионный анализ

Множественный регрессионный анализ

Построение уравнения регрессии 1. Постановка задачи. Данные наблюдений. По имеющимся данным n наблюдений за совместным изменением параметров y, xj ...

Конспекты

Алгебра и начала анализа 10 класс

Алгебра и начала анализа 10 класс

Алгебра и начала анализа 10 класс(поурочные планы). . 1-е полугодие.  . Глава 1. Числовые функции.  . Уроки 1-2. Определение числовой функции ...
Применение графических и геометрических методов при решении текстовых задач

Применение графических и геометрических методов при решении текстовых задач

Тема урока. : Применение графических и геометрических методов при решении текстовых задач. (11 класс). Цели. :. Обучающая:. научить решать текстовые ...
Основы тригонометрии

Основы тригонометрии

Учитель математики первой категории Славкина Надежда Владимировна ОСШ №39 имени М.Жумабаева города Шымкента,. . Южно-Казахстанской области. ...
Использование математических методов исследования при изучении физики

Использование математических методов исследования при изучении физики

. Севастопольская билингвальная гимназия № 2 СГС. Бинарный урок физики и математики. на французском языке. « Использование ...

Советы как сделать хороший доклад презентации или проекта

  1. Постарайтесь вовлечь аудиторию в рассказ, настройте взаимодействие с аудиторией с помощью наводящих вопросов, игровой части, не бойтесь пошутить и искренне улыбнуться (где это уместно).
  2. Старайтесь объяснять слайд своими словами, добавлять дополнительные интересные факты, не нужно просто читать информацию со слайдов, ее аудитория может прочитать и сама.
  3. Не нужно перегружать слайды Вашего проекта текстовыми блоками, больше иллюстраций и минимум текста позволят лучше донести информацию и привлечь внимание. На слайде должна быть только ключевая информация, остальное лучше рассказать слушателям устно.
  4. Текст должен быть хорошо читаемым, иначе аудитория не сможет увидеть подаваемую информацию, будет сильно отвлекаться от рассказа, пытаясь хоть что-то разобрать, или вовсе утратит весь интерес. Для этого нужно правильно подобрать шрифт, учитывая, где и как будет происходить трансляция презентации, а также правильно подобрать сочетание фона и текста.
  5. Важно провести репетицию Вашего доклада, продумать, как Вы поздороваетесь с аудиторией, что скажете первым, как закончите презентацию. Все приходит с опытом.
  6. Правильно подберите наряд, т.к. одежда докладчика также играет большую роль в восприятии его выступления.
  7. Старайтесь говорить уверенно, плавно и связно.
  8. Старайтесь получить удовольствие от выступления, тогда Вы сможете быть более непринужденным и будете меньше волноваться.

Информация о презентации

Ваша оценка: Оцените презентацию по шкале от 1 до 5 баллов
Дата добавления:9 марта 2019
Категория:Математика
Содержит:39 слайд(ов)
Поделись с друзьями:
Скачать презентацию
Смотреть советы по подготовке презентации