суббота, 31 июля 2021 г.

Человек, расшифровавший письменность майя

 

На фото Ю.Кнорозов с кошкой Асей, (Аспидом)

Это Юрий Кнорозов. Человек, расшифровавший письменность майя. 

Расшифровал он ее проживая в чулане при музее. От пола до потолка комната была забита книгами, по стенам висели прорисовки иероглифов майя. Из мебели - только письменный стол и солдатская койка. 

На защиту кандидатской он шел, допуская возможность уехать оттуда в тюрьму. Дело в том, что Ф. Энгельс утверждал, будто в доколумбовой Америке государства отсутствовали.

Доклад Ю. В. Кнорозова на защите диссертации на соискание степени кандидата исторических наук (29 марта 1955 года, тема: «Сообщение о делах в Юкатане» Диего де Ланды как этно-исторический источник») длился три с половиной минуты, после обсуждения ему единогласно была присуждена степень доктора исторических наук. Защита диссертации по индейцам майя стала научной и культурной сенсацией в Советском Союзе.

Очень быстро о дешифровке узнали и за рубежом.

Ни разу не побывавший в Мексике советский исследователь сделал то, чего не добились многие ученые разных стран, годами проводившие полевые исследования. Не выходя из кабинета, он дешифровал древнее письмо, основываясь на текстах трёх сохранившихся рукописей, что позволило ему в последующем придумать оборонительную фразу: «Я — кабинетный учёный. Чтобы работать с текстами, нет необходимости лазать по пирамидам». А в действительности ему очень хотелось оказаться в Мексике. Но это было невозможно — он был «невыездным».

В стране майя великому дешифровщику удалось побывать лишь в 1990 году, когда он был приглашен президентом страны Винисио Сересо Аревало. Приглашение совпало с размораживанием дипломатических отношений с Гватемалой. Кнорозову устроили посещение главных достопримечательностей страны, вручили Большую золотую медаль президента Гватемалы. Поднявшись в одиночку на пирамиду Тикаля, он долго молча стоял там... Юрий Валентинович был доволен.

Гения не стало 30 марта 1999 г. Его смерть и похороны по абсурдности напоминали кончину Паганини. Дирекция Кунсткамеры решила не предоставлять зал музея для прощания с ним, и множество людей собралось в тесном больничном морге, где рядом было выставлено еще несколько гробов. Кнорозов очень любил Невскую лавру, но похоронили его на новом кладбище вдали от города.

Юрий Валентинович Кнорозов умер от инсульта и последовавшего отёка легких на выставленной в коридор больничной койке в Санкт-Петербурге в полном одиночестве, вскоре после получения почётной награды им. Татьяны Проскуряковой (США).

Похоронен на Ковалёвском кладбище под Санкт-Петербургом.
Лауреат Государственной премии СССР (1977). Кавалер ордена Ацтекского орла (Мексика) и Большой золотой медали (Гватемала). 


среда, 7 июля 2021 г.

Top 5 Sources For Analytics and Machine Learning Datasets

 Machine learning becomes engaging when we face various challenges and thus finding suitable datasets relevant to the use case is essential. Its flexibility and size characterise a data-set. Flexibility refers to the number of tasks that it supports. For example, Microsoft’s COCO( Common Objects in Context) is used for object classification, detection, and segmentation. Add a bunch of captions for the same, and we can use it as a dataset for an image caption generator as well.

That’s the power of a robust dataset. Well, when we are just starting, we shall be working with some of the small and standard machine learning datasets like the CIFAR-10, MNIS, Iris, etc. These datasets are preloaded in many of the libraries these days and can be quickly loaded. Keras, scikit-learn provide options for the same.

Machine Learning: Important Dataset Sources


Let us begin by finding machine learning datasets that are problem-specific, and hopefully cleaned and pre-processed.
It surely is a strenuous task to find specific datasets like MS-COCO for all varieties of problems. Therefore, we need to be intelligent about how we use datasets. For example, using Wikipedia for NLP tasks is probably the best NLP dataset there possibly is. In this article, we discuss some of the various sources for Machine Learning Datasets, and how we can proceed further with the same. A word of caution, be careful while reading the terms and conditions that each of these datasets impose, and follow accordingly. This is in the best interest of everyone indeed.

1. Google’s Datasets Search Engine:

Google has been the search engine giant, and they helped all the ML practitioners out there by doing what they are legends at, helping us find datasets. The search engine does a fabulous job at getting datasets related to the keywords from various sources, including government websites, Kaggle, and other open-source repositories.

2. .gov Datasets:

With the United States, China and many more countries becoming AI superpowers, data is being democratised. The rules and regulations related to these datasets are usually stringent as they are actual data collected from various sectors of a nation. Thus, cautious use is recommended. We list some of the countries that are openly sharing their datasets.
Indian Government Dataset
Australian Government Dataset
EU Open Data Portal
New Zealand’s Government Dataset
Singapore Government Dataset

3. Kaggle Datasets

Kaggle is known for hosting machine learning and deep learning challenges. The relevance of Kaggle in this context is that they provide datasets, and at the same time provide a community of learners and ML practitioners, whose work shall help us with our progress. Each challenge has a specific dataset, and it is usually cleaned so that we don’t have to do the bland work of cleaning necessarily and can instead focus on refining the algorithm. The datasets are easily downloadable. Under the resources section, there are prerequisites and links to learning material, which helps us whenever we are stuck with either the algorithm or the implementation. Kaggle is a fantastic website for beginners to venture into applications of machine learning and deep learning and is a detailed resource pool for intermediate practitioners of machine learning.

4. Amazon Datasets (Registry of Open Data on AWS)

Amazon has listed some of the datasets available on their servers as publicly accessible. Therefore, when using AWS resources for calibrating and tweaking models, using these locally available datasets will fasten the data loading process by tens of times. The registry contains several datasets classified according to the field of applications like satellite images, ecological resources, etc.

5. UCI Machine Learning Repository

UCI Machine Learning Repository provides easy to use and cleaned datasets. These have been the go-to datasets for a long time in academia.

6. Yahoo WebScope

An exciting feature that this website provides is it lists the paper which used the dataset. Therefore, all research scientists and people from academia will find this resource handy. The datasets available cannot be used for commercial purposes. For more details, check the websites of the datasets provided.

7. Datasets subreddit

The subreddit can be used as a secondary guide when all other options lead nowhere. People usually discuss the various available datasets and how to use existing datasets for new tasks. A lot of insights regarding the necessary tweaking required for datasets to work in different environments can be obtained as well. Overall, this should be the last resource point for datasets.
Let’s focus on datasets specific to the major domains that have seen accelerated progress in the last two decades. Having domain-specific datasets available enhances the robustness of the model, and thus more realistic and accurate results are possible. The areas include computer vision, NLP and, Data analytics. 

Datasets for other applications 

Computer Vision Datasets

There are several computer vision datasets available. The choice of the dataset depends on the level of competence we are working with. The pre-loaded datasets on Keras and scikit-learn are sufficient for learning, experimenting and implementing new models. The downside with these datasets is that the chances of overfitting of the model are high due to the low complexity in the datasets. Therefore, for intermediate ML practitioners and organisations solving specific problems can refer to various sources:

COCO dataset: COCO or Common Objects in COntext is large-scale object detection, segmentation, and captioning dataset. The dataset contains almost 330k images out of which more than 200k are labelled images. This dataset contains segmented images as Image segmentation is typically used to locate objects and boundaries (lines, curves, etc.) in images. 

Here is a link to the source COCO.

Imagenet dataset: ImageNet is a large database or dataset of over 14 million images. It was designed by academics intended for computer vision research. It was the first of its kind in terms of scale. Images are organized and labelled in a hierarchy.ImageNet contains more than 20,000 categories with a typical category, such as “balloon” or “strawberry”, consisting of several hundred images.

Here is a link to the source Imagenet

CIFAR-10: The CIFAR-10 dataset (Canadian Institute For Advanced Research) is a collection of images that are commonly used to train machine learning and computer vision algorithms. It is one of the most widely used datasets for machine learning research. The 10 different classes represent aeroplanes, cars, birds, cats, deer, dogs, frogs, horses, ships, and trucks. There are 6,000 images of each class since the images in CIFAR-10 are low-resolution (32×32). This dataset can allow researchers to quickly try different algorithms to see what works.

Here is a link to the source CIFAR-10

Open Images(V6): Open Image is a dataset of nearly 9 million images annotated with image-level labels, object bounding boxes, object segmentation masks, visual relationships, and localized narratives. It contains a total of 16 million bounding boxes for 600 object classes on 1.9 million images, making it the largest existing dataset with object location annotations. The boxes have been largely manually drawn by professional annotators to ensure accuracy and consistency. The images are very diverse and often contain complex scenes with several objects (8.3 per image on average). Open Images also offers visual relationship annotations, indicating pairs of objects in particular relations (e.g. “woman playing guitar”, “beer on table”), object properties (e.g. “table is wooden”), and human actions (e.g. “woman is jumping”). In total it has 3.3M annotations from 1,466 distinct relationship triplets. 

Here is a link to the source Open Images


Computer vision online: A variety of resources and datasets are available on the website. It lists most of the open-source datasets and redirects the user to the dataset’s webpage. The datasets available can be used for classification, detection, segmentation, image captioning and many more challenging tasks.

Here is a link to the source Computer vision online


YACVID: This website lists almost all the available datasets. It makes it easy for finding relevant datasets by providing the option of searching with the help of tags associated with each dataset. We highly recommend our readers to try this website out.

Here is a link to the source YACVID

Natural Language Processing

NLP is growing at a phenomenal pace, and recently language modelling has had its Imagenet moment, wherein people can start building applications with state of the art conversational NLP agents. When it comes to NLP, several scenarios require task-specific catered datasets. NLP deals with sentiment analysis, audio processing, translation, and many more challenging tasks. Therefore, it is necessary to have a massive list of datasets:

Stanford Question Answering Dataset (SQuAD): Stanford Question Answering Dataset (SQuAD) is a reading comprehension dataset, consisting of questions posed by crowd workers on a set of Wikipedia articles, where the answer to every question is a segment of text, or span, from the corresponding reading passage, or the question might be unanswerable.

SQuAD2.0 combines the 100,000 questions in SQuAD1.1 with over 50,000 unanswerable questions written adversarially by crowd workers to look similar to answerable ones. To do well on SQuAD2.0, systems must not only answer questions when possible but also determine when no answer is supported by the paragraph and abstain from answering.

Here is a link to the source SQuAD

Yelp Reviews: This dataset is a subset of Yelp’s businesses, reviews, and user data. It was originally put together for the Yelp Dataset Challenge which is a chance for students to conduct research or analysis on Yelp’s data and share their discoveries. In the dataset, you’ll find information about businesses across 11 metropolitan areas in four countries.

Here is a link to the source Yelp Reviews

The Blog Authorship Corpus: The Blog Authorship Corpus is a collection of posts from 19,320 bloggers. These blogs were gathered from blogger.com in August 2004. The corpus incorporates a total of 681,288 posts and over 140 million words – or approximately 35 posts and 7250 words per person.

Each blog is presented as a separate file, the name of which indicates a blogger id# and the blogger’s self-provided gender, age, industry and astrological sign. (All are labelled for gender and age but for many, industry and/or sign is marked as unknown.)

All bloggers included in the corpus fall into one of three age groups:

  • 8240 “10s” blogs (ages 13-17),
  • 8086 “20s” blogs(ages 23-27)
  • 2994 “30s” blogs (ages 33-47).

For each age group, there is an equal number of male and female bloggers.

Each blog in the corpus includes at least 200 occurrences of common English words. All formatting has been stripped with two exceptions. Individual posts within a single blogger are separated by the date of the following post and links within a post are denoted by the label urllink.

Here is a link to the source The Blog Authorship Corpus

Appen: The datasets on this website are cleaned and provide a vast database to choose from. The appealing and easy-to-use interface makes this a highly recommended choice.

Here is a link to the website.

Apart from these majority of the datasets in the domain are listed in the following GitHub repository. 

Statistic and Data Science 

Data Science covers a range of tasks including creating recommendation engines, predicting parameters given the data, like time-series data, and doing exploratory and analytical research. Small organisations and individual practitioners don’t have what the big giants have, that is the data, and hence open datasets such as these is a huge boon to create actual models that reflect real data, and not simulated data. 
http://rs.io/100-interesting-data-sets-for-statistics/: There are various datasets available for specific tasks, and it’s a wonderful resource point. 
http://deeplearning.net/datasets/: These are benchmark datasets and can be used for comparing the results of the model built with the benchmark results. 
This is an exhaustive list of datasets for machine learning, analytics, and other applications. We wish you the best of luck while implementing models. Also, we hope you come up with models that can match the benchmark results.
If you are interested in learning Machine Learning concepts and pursue a career into the domain, upskill with Great Learning’s PG Program in Artificial Intelligence and Machine Learning

By Great Learning

https://bit.ly/3hKNh27

Augmented Intelligence: combining human and artificial intelligence to change behavior

 


Artificial Intelligence, or AI, is the most promising and overhyped technology of our times. AI techniques such as deep learning have allowed computers to match or even beat world experts at games like chess and Go, and even board-certified doctors at diagnosing diabetic retinopathy and skin cancer.
While AI is great for recognizing patterns in puzzles and pictures, it is much harder for AI to change the behavior of people, in all their fascinating and frustrating complexity. In an earlier post on the Keystone Habit, I introduced the concept of using goals and habit change loops for personal development. Now let’s explore how to combine these loops for product development, in order to design a system to help someone change.
Here, I argue that human intelligence is better applied to helping people form goals, while AI is better applied to helping people form habits. This is not to say that an effective fully-automated AI system could not be built. But if you already have human and software resources, they can be synergistically combined to create an “Augmented Intelligence” system for behavior change.
The Sepah Behavior Change Model:
While there are a lot of behavior change models out there, I created a new model to integrate two important concepts—the goal formation loop on the left, and the habit formation loop on the right—into a unified loop that allows for continual improvement. Let’s walk through an example of how this works:


Plan the Goal:
All behavior begins with intention. Let’s say my intention is to exercise more often. While I may want to start working out every day, I decide to work with a personal trainer who takes into account my current routine to help me set a S.M.A.R.T. goal, that is Specific, Measurable, Agreed Upon, Realistic, and Time-Bound. For example, since he knows my gym is conveniently located two blocks from my work, and I’m more motivated to exercise in the morning because I work long hours, we mutually set a goal of going to the gym next to my work at 7:30AM, to lift weights for 30 minutes on Monday, Wednesday, and Friday, and to check-in at week’s end.
Theoretically, an AI-based system could also ask me a series of questions about my routine and preferences, then creates a reasonably-tailored S.M.A.R.T. goal for me. But these systems often run into problems adjusting goals over time, as we’ll see later in the loop, which is why humans are better suited to plan and revise goals.
Act on the Goal:
Next comes an attempt to act on the goal. I’m motivated on Monday morning, and I successfully go to the gym for 30 minutes before work. Great! Action is the centerpiece of the model for good reason, since goals are merely dreams without action. It’s worth noting that inaction, such as procrastination, is counterintuitively an action itself (what the Taoists call ‘Wu Wei’, the action of inaction). So whether you do or you don’t, you’re still acting. The difference is direct action takes you towards your goals and values, while avoidance takes you away from them.
Reward the Habit:
Here we cross into the habit loop: actions only become habits when they are repeatedly rewarded over time, even if the rewards are occasional. These can be intrinsic rewards (e.g. the mood boost from the workout) or extrinsic rewards (e.g. my personal trainer telling me I did a good job). While social reinforcement is an incredibly powerful motivator—it fueled the rise of phenomena like Crossfit—AI can reward habits equally well.
Gamification, which is the application of behavioral principles to game mechanics, is the best example of AI reinforcement. It successfully gets people to play video games for hours on end using tokens such as points and badges to designate accomplishment and skill development. This would seemingly pale in comparison to the sense of satisfaction that comes from a real person giving you a heartfelt high-five after a workout. But the high-five after every single workout can become repetitive, while gamified systems use variable schedules, quantities, and types of rewards (like how slot machines randomly dole out different jackpots) to prevent habituation and continually provide the addictive dopamine hit that powerful rewards bring.
AI is also superior to human reinforcement on an economic basis. While a personal trainer is motivational, they are usually not as cost-effective as an AI system emailing me a coupon for free protein shake at my gym when I achieve 3 workouts a week, or notifying me that I am among the top 20 most active gym-goers via an automated text message. Applications like PactDietBet, and Stikk are examples of companies that blend social and behavioral economic rewards to get people to go to the gym more often.
Remind the Habit:
Habits not only need to be rewarded, but they need a reminder (also known as a cue or trigger) to initiate the behavior regularly. Since I am out of town for work on Tuesday, I call the hotel front desk and set a wake-up call on Wednesday morning to remind me to get up for my scheduled workout. While that is an effective reminder, it is not a good use of human resources, which is why most hotels have automated wake-up call systems (or most people just use their smart phone’s alarm).
Though it seems obvious, Omada ran a randomized controlled trial to validate this hypothesis. We found an automated email performs just as well as a human coach in reminding a participant to weigh-in on our connected scale. Given that reminders are quick and easy, outsourcing this to AI is an effective move.
Act on Your Goal (Again):
For an automatic habit to form, the action must be repeated. My alarm goes off on Friday, but I am so sleep-deprived and tired that I decide to hit the snooze button. I text my trainer to cancel our session last minute, and fail to go for the third scheduled workout that week. Thus, I unfortunately fall short of my initial goal.
Reflect on the Goal:
Here we cross back into the goal loop by reflecting on the week and how well I’ve executed against my goal. This step is missing or glossed over in most versions of habit loops that you’ll see in books, but is critical if you want to continually iterate and improve upon your goals. In a previous article, I argued that reflection is the Keystone Habit when it comes to personal development, and articulated a concrete system to achieve your goals. Without reflection, we are doomed to repeat mistakes, and as I always tell my patients:
“a mistake repeated more than once is a decision.”
My trainer calls me over the weekend to reflect on our first week together. I share that I used my initial motivation to successfully go to the gym on Monday. I then used an alarm to remind me to go again on Wednesday, and was motivated by remembering the sense of accomplishment I felt after the first workout.
However, by the time Friday rolled around, we identified I was sore from starting a new exercise routine and the accumulated sleep deprivation from a long work week hindered my physical recovery and sapped my motivation. Here we see the power of human intelligence. While there were many factors that contributed to my skipping the gym on Friday, a quick conversation with my trainer identified the two major ones: muscle soreness and lowered motivation from sleep deprivation. An AI system has a much harder time identifying and isolating variables, especially psychological ones.
Plan the Goal (Again):
Based on the information gathered, my trainer and I work together to plan a revised goal for next week. He recommends I go to the gym next Monday and Wednesday at 7:30AM, but knowing I’m likely to be sleep-deprived and less motivated on Friday, recommends I go at 6PM just to warm up and stretch (thus reinforcing the habit of going regularly, while making the workout easy enough for my level of motivation). If that doesn’t work, we will switch the third weekly workout to Saturdays when I’m feeling more recovered and motivated.
Human intelligence shines at iterating on goals. Good trainers and therapists accurately identify individual strengths and barriers and leverage them to creatively optimize goals towards success. People’s physical and psychological states also vary tremendously on a day-to-day basis. Humans are better at picking up on these through our intuitive ability to read body language and facial expressions. Once a new goal is planned, the behavior change loop is executed repeatedly until the action becomes an automatic habit.
The Future of Augmented Intelligence
While AI has tremendous promise (and I advise AI startups in Silicon Valley because I believe they will be transformative), it’s currently better suited for specific intelligence, rather than general intelligence. When it comes to behavior change, AI is a clinically effective and cost-effective tool for habit formation by automating reminders for behaviors and providing variable rewards. But when it comes to goal formation, human intelligence (particularly that of an effective manager, trainer, or psychologist) is currently better leveraged to help people with goal planning and reflection to continually improve.
As a result, I believe the immediate future holds tremendous promise for hybrid systems, what I call “Augmented Intelligence,” which best combines human and artificial intelligence to change human behavior. Rather than replacing human coaching altogether, AI can support coaches by automating the easier tasks of reminding and rewarding habits. Thus freeing time to focus on what’s difficult and meaningful: helping others find and achieve their dreams.


Религиозность в мире

 


воскресенье, 4 июля 2021 г.

Древняя Украина: наши смереки появились раньше динозавров

 Наверняка многие задумывались: что было миллион лет назад на месте современной Украины? А десять миллионов лет назад? А миллиард?

Сегодня мы попытаемся популярно ответить на вопрос, как выглядела Украина в доисторические времена, использовав данные современной науки.

Как известно, ученые определили, что возраст Земли составляет около 4,5 миллиардов лет. Это невероятно огромный срок: даже если бы человек жил не 70—80 лет, а в тысячу раз больше, — и то только за самый короткий период истории планеты — антропоген (он начался 2,6 миллионов лет назад и пока в 15—25 раз короче, чем любой другой период, начиная с кембрийского), когда уже были древние люди, сменилась бы тысяча поколений.
Увы, 3/4 жизни нашей планеты приходятся на две малоинтересные эры: архейскую (1,5 миллиард лет) и протерозойскую (2 млрд), когда жизнь только зарождалась в виде примитивных организмов, плавающих в Мировом океане, а на континентах извергались тысячи вулканов. Размеры и очертания материков и океанов за миллиарды лет не раз кардинально менялись.
Если считать "с нуля", то до архейской была еще катархейская эра (0,5—0,6 млрд лет), но оказаться на нашей планете в те времена совсем было бы скучно — она представляла собой огромный раскаленный "булыжник", и не более.

Итак, отметим на карте эллипс, протянувшийся с севера на юг от 53-го до 45 градуса северной широты (около 900 км) и с запада на восток от 22 до 40 градуса восточной долготы (свыше 1300 км) — в него вписывается вся территория Украины — и взглянем, что было на этом месте в разные периоды, на которые наука разделила историю планеты.

ПЕКЛО И НЕЧЕМ ДЫШАТЬ


Что находилось на месте современной Украины в архее (4—2,5 млрд лет назад), достоверно сказать сложно. Скорее всего, там была суша, потому что океаны только зарождались.
Извергались многочисленные вулканы, а температура атмосферы, состоящей из азота и углекислого газа, доходила до 120 градусов Цельсия. А вот в протерозое (длился 2 млрд лет) большую часть планеты покрывал Мировой океан с единственным суперконтинентом Родиния, который постепенно распался на 8 континентов. Десятки миллионов лет свирепствовал жуткий холод (до -50 °C), а кислорода в атмосфере было в 20 раз меньше, чем сейчас — всего около 1%.
Там, где сейчас живут украинцы, стояла покрытая многометровым льдом соленая вода, в которой обитали примитивные беспозвоночные организмы.

130 МЛН ЛЕТ: ОТ ВОДОРОСЛЕЙ ДО РАКОСКОРПИОНОВ


После протерозоя Украина была морским дном еще 130 миллионов лет — от кембрийского до начала девонского периода. За это время сверхматерик Гондвана, протянувшийся поперек экватора примерно там, где сейчас Тихий океан, успел сместиться к Южному полюсу, а массивы суши, образующие Европу, Северную Америку и Гренландию, стали постепенно сближаться, и в девонском периоде (350 млн лет назад) они сольются в единое целое — гигантский континент Лавразию. Все это сопровождалось извержениями вулканов. Из-за туч пепла, выброшенного в атмосферу, на Земле холодало, а когда они рассеивались, теплело. К концу кембрия (500 млн лет назад) началось оледенение, растянувшееся примерно на 10 млн лет, в ордовике (480 млн лет назад) потеплело, к силуру (443 млн лет назад) Землю снова сковали льды, и лишь в районе экватора было тепло.

Что касается флоры и фауны, то морская жизнь начала бурно развиваться в кембрии. Сначала это были примитивные водоросли, затем морские лилии, мшанки (морские циновки), первые кораллы. Из животных в морях самыми многочисленными были трилобиты (членистоногие многоножки длиной до 90 см) и плеченогие беспозвоночные. Позднее появились головоногие моллюски и примитивные панцирные рыбы, губки, морские звезды, морские ежи, морские лилии и множество различных червей.

В ордовике (488—443 млн лет назад) в океане уже плавали первые твердопокровные и хордовые (прообраз скелета) животные, бесчелюстные панцирные рыбы. В силуре у рыб появились челюсти, к концу периода (410 млн лет) сушу начали осваивать первые растения (водоросли) и животные (скорпионы, многоножки). И весь палеозой в воде жили ракоскорпионы, кто такие — ясно из названия: крупные, до 2 метров в длину(!), хищные членистоногие, наводившие ужас на обитателей морей.

Но Украины это не коснулось. Учитывая, что в 40—50-х широтах, где сейчас она находится, был в те времена глубокий океан, вряд ли в нем все эти миллионы лет кишела бурная жизнь. В лучшем случае в теплых поверхностных слоях плавало нечто вроде планктона, а при оледенении океан замерзал.

КАТАКЛИЗМЫ И КУЗНЕЧИКИ


Девонский период был временем величайших катаклизмов на нашей планете. Европа, Северная Америка и Гренландия столкнулись, образовав северный сверхматерик Лавразию. Его восточная часть оказалась аккурат на том месте, где сейчас мы живем. В девоне (416—359 млн лет назад) здесь были обширные болотистые дельты.
Примерно от 380 до 360 млн лет назад на западе Волыни и Подолья, примерно до линии Ровно — плескались волны океана Тетис, образовавшие неглубокие заливы, дальше на восток — суша. Это создавало идеальные условия для животных, дерзнувших сделать первые шаги из воды.

Постепенно сушу покрыли первобытные леса из плаунов и хвощей, достигавших в высоту 40 м. Леса продвигались на север и восток, вместе с ними из воды выползали членистоногие. Появились клещи, пауки и примитивные бескрылые насекомые. А в воде жили аммониты (древние улитки размером от 2 см до 2 м), акулы, скаты, кистеперые рыбы.


В карбоне (каменноугольном периоде) моря Тетиса и дальше мелели, пока Лавразия не слилась с надвигавшейся с юга Гондваной и Тетис исчез (примерно 290 млн лет назад). Вымерли трилобиты, страшные ракоскорпионы, морские лилии и многие другие обитатели вод. На месте нынешней Украины росли леса из гигантских плаунов, хвощей, древовидных папоротников и семенных растений высотой до 45 м. Они со временем превратились в каменный уголь. Для фауны был век земноводных и насекомых — кузнечиков, тараканов, термитов, жуков и гигантских стрекоз. В позднем карбоне появились и первые рептилии — предки динозавров.

ПЕРМЬ: ЗАСУХА И РОСТ ЛЕСОВ


Пермский период начался с оледенения, но по мере сближения сверхматериков Лавразии и Гондваны, которая дрейфовала на север, льды отступали, и 260 млн лет назад в Лавразии стало жарко и сухо, появились обширные пустыни.

На большей части Украины была суша, покрытая лесами из гигантских папоротников, и болотами, в которых водились пресмыкающиеся-мезозавры — предки динозавров, достигавшие 1 метра в длину, которые жили и в воде, и на суше, питались рыбой. В ранней перми в пресных водоемах господствовали земноводные. Наступившая засуха выморила к концу периода 96% морских обитателей и 50—80% видов наземных. Погибли почти все насекомые. Зато разрослись первые хвойные леса.

ДИНОЗАВРЫ В КРЫМУ


Триасовый и юрский периоды — это прежде всего динозавры. Водились они в течение 100 млн лет и на территории нынешней Украины: в триасе сухопутные звери всех видов, известные нам по фильму "Парк юрского периода", бродили среди зарослей араукарий, гинкго и просто хвойных деревьев, пожирая растительность и друг друга, у них под лапами путались крокодилы, черепахи, лягушки и прочая мелочь, вроде первых млекопитающих. Воздух рассекали птеродактили, воду — ихтиозавры. Климат тогда был теплый, почти одинаковый на экваторе и ближе к полюсам.

К концу триаса (200 млн лет назад Лавразия и Гондвана снова разделились примерно вдоль по линии экватора. В течение юрского периода (54 млн лет) море затопило значительную часть суши, в том числе и Украину. Над водой остался , часть Донецкой области и центр (Кировоградская, Черкасская области).

В юре теплый и сухой климат сменился более влажным. Там где сейчас текут Днепр, Буг, , Припять, Рось, образовались мелкие моря, в которых плавали новые виды водных пресмыкающихся — плезиозавров и ихтиозавров. На суше господствовали насекомые, предшественники современных мух, ос, муравьев и пчел. Становился на крыло археоптерикс — прародитель современных птиц. В лесах появились предшественники кипарисов, сосен и мамонтовых деревьев.

ОКЕАН ОТ КАРПАТ ДО ДОНБАССА

Весь меловой период продолжался "великий раскол" материков. Океан наступал: большая часть современной Европы находилась тогда под водой. В начале мела Крым снова утонул, остальная территория Украины стала сушей. Но спустя "какие-то" 50 млн лет, воды океана Тетис залили все — от Карпат до Донбасса. Поначалу климат был теплым и влажным, затем заметно похолодало. В океанах господствовали гигантские морские черепахи и хищные морские рептилии. На суше ползали первые змеи, летали мотыльки и бабочки. Динозавры начали массово вымирать. Появились первые цветы. Благодаря насекомым, переносившим их пыльцу, цветы быстро распространились по всей суше.

КАЙНОЗОЙ: ЛЬДЫ ДО ЧЕРКАСС


В кайнозое карта Земли постепенно приобрела современный вид, а флора и фауна развивалась семимильными шагами. На территории Украины от 65 до 38 млн лет лет назад (палеоген) было тепло, даже росли пальмы, под которыми ходили предки нынешних слонов, лошадей, коров, свиней, тапиров, носорогов и оленей, бегали кролики, зайцы, грызуны.
В олигоцене (38—23 млн лет назад) похолодало, тропики уступили место лесам типа нынешних хвойных и лиственных и степям. Следующие 20 млн лет (миоцен и плиоцен) холодало еще больше, праслоны и им подобные ушли на юг, а Украину облюбовали саблезубые тигры, охотившиеся на копытных и первых человекообразных обезьян. 2,5 млн лет назад начался ледниковый период (у нас льды дошли до Черкасс), леса почти исчезли, их сменили степи, а многие древние животные вымерли от голода и холода.

Но саблезубые кошки, пещерные львы, мамонты и шерстистые носороги выжили благодаря теплой шерсти и вымерли уже когда льды начали отступать — 10 тысяч лет назад. С ними сражались за место под солнцем древние люди, которые пришли в Украину с юга и востока примерно 900 тысяч лет назад.

Завотделом палеологии и стратиграфии кайнозоя Института геологических наук
АН Украины, доктор геолого-минералогических наук Владимир Зосимович