На сайте РТ применяются рекомендательные технологии (предоставление информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей, находящихся на территории РФ).
Импортозамещение идет полным ходом, можем когда захотим, зарубежом CMS систем на базе ИИ еще нет, так что это первая не только в России, молодцы разработчики, хорошая новость
Существует также Vely, серверная веб-инфраструктура для языка программирования C. Вероятно, это самый новый вариант, но, по моему опыту, он также имеет лучшую производительность. Раньше я использовал javascript и node.js, и до сих пор Vely был для меня отличным опытом, особенно с точки зрения скорости разработки.
Делать интернет-магазин с нуля чаще всего неоправданно, поскольку есть готовые решения, которые пользуются популярностью даже среди опытных разработчиков сайтов.
DST Strore лучшее готовое решение для быстрого создания интернет-магазина с широкими возможностями, хорошим дизайном и оптимальными техническими характеристиками… Движок со всеми необходимыми модулями для интернет-коммерции.
DST CRM — отличная программа для планирования, контроля и управления всеми задачами. Она помогает нам организовать внутренние процессы. В DST CRM мы ставим задачи сотрудникам и контролируем сроки. Это удобно: теперь никто не забывает о своих задачах, а руководитель всегда в курсе, в каком они статусе и когда дедлайн.
DST CRM — отличная программа для планирования, контроля и управления всеми задачами. Она помогает нам организовать внутренние процессы. В DST CRM мы ставим задачи сотрудникам и контролируем сроки. Это удобно: теперь никто не забывает о своих задачах, а руководитель всегда в курсе, в каком они статусе и когда дедлайн.
DST CRM — отличная программа для планирования, контроля и управления всеми задачами. Она помогает нам организовать внутренние процессы. В DST CRM мы ставим задачи сотрудникам и контролируем сроки. Это удобно: теперь никто не забывает о своих задачах, а руководитель всегда в курсе, в каком они статусе и когда дедлайн.
DST CRM — отличная программа для планирования, контроля и управления всеми задачами. Она помогает нам организовать внутренние процессы. В DST CRM мы ставим задачи сотрудникам и контролируем сроки. Это удобно: теперь никто не забывает о своих задачах, а руководитель всегда в курсе, в каком они статусе и когда дедлайн.
Спасибо, очень полезный материал, особенно важно то что приведены примеры именно нагрузок и решения для социальных сетей, что достаточно являеться редким материалом, автору однозначно плюс
Искусственный интеллект, даже на текущем этапе развития, становится неотъемлемой частью профессиональной деятельности, особенно в сфере программирования. Примеры использования ИИ у нас в компании показывают, что это может улучшить рабочие процессы, сократить время на выполнение рутинных задач и повысить общую продуктивность. Но разумеется, мы будем продолжать интеграцию в рабочие процессы и обучать сотрудников эффективному использованию, иначе можно остановиться на чат-ботах, а возможности гораздо шире, т.к. даже интеграция в IDE – это лишь верхушка айсберга.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Искусственный интеллект, даже на текущем этапе развития, становится неотъемлемой частью профессиональной деятельности, особенно в сфере программирования. Примеры использования ИИ у нас в компании показывают, что это может улучшить рабочие процессы, сократить время на выполнение рутинных задач и повысить общую продуктивность. Но разумеется, мы будем продолжать интеграцию в рабочие процессы и обучать сотрудников эффективному использованию, иначе можно остановиться на чат-ботах, а возможности гораздо шире, т.к. даже интеграция в IDE – это лишь верхушка айсберга.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Искусственный интеллект, даже на текущем этапе развития, становится неотъемлемой частью профессиональной деятельности, особенно в сфере программирования. Примеры использования ИИ у нас в компании показывают, что это может улучшить рабочие процессы, сократить время на выполнение рутинных задач и повысить общую продуктивность. Но разумеется, мы будем продолжать интеграцию в рабочие процессы и обучать сотрудников эффективному использованию, иначе можно остановиться на чат-ботах, а возможности гораздо шире, т.к. даже интеграция в IDE – это лишь верхушка айсберга.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Искусственный интеллект, даже на текущем этапе развития, становится неотъемлемой частью профессиональной деятельности, особенно в сфере программирования. Примеры использования ИИ у нас в компании показывают, что это может улучшить рабочие процессы, сократить время на выполнение рутинных задач и повысить общую продуктивность. Но разумеется, мы будем продолжать интеграцию в рабочие процессы и обучать сотрудников эффективному использованию, иначе можно остановиться на чат-ботах, а возможности гораздо шире, т.к. даже интеграция в IDE – это лишь верхушка айсберга.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Искусственный интеллект, даже на текущем этапе развития, становится неотъемлемой частью профессиональной деятельности, особенно в сфере программирования. Примеры использования ИИ у нас в компании показывают, что это может улучшить рабочие процессы, сократить время на выполнение рутинных задач и повысить общую продуктивность. Но разумеется, мы будем продолжать интеграцию в рабочие процессы и обучать сотрудников эффективному использованию, иначе можно остановиться на чат-ботах, а возможности гораздо шире, т.к. даже интеграция в IDE – это лишь верхушка айсберга.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Лично мое мнение что основные направления для использования ИИ это:
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Лично мое мнение что основные направления для использования ИИ это:
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Лично мое мнение что основные направления для использования ИИ это:
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Лично мое мнение что основные направления для использования ИИ это:
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Лично мое мнение что основные направления для использования ИИ это:
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Нейросети могут использоваться и при работе с уже работающим кодом. Рефакторинг кода — это по сути его оптимизация и улучшение. Как говорится, нет предела совершенству. ИИ помощник на основе анализа может помочь сделать уже написанный код лучше, надежнее, более читаемым, например, указать на некие спорные моменты, которые разработчик мог пропустить (предложить более подходящий пакет, указать на наличие существующей похожей функции в другой части кода, которую можно переиспользовать вместо написания новой и т.п.). Оптимизируя код, нейронная сеть улучшает программный продукт, подстраивая его под потребности и интересы потенциальных пользователей. Кроме того, рефакторинг позволяет сделать конечный код более структурированным и не загруженным – в дальнейшем с ним будет удобнее работать.
Нейросети могут использоваться и при работе с уже работающим кодом. Рефакторинг кода — это по сути его оптимизация и улучшение. Как говорится, нет предела совершенству. ИИ помощник на основе анализа может помочь сделать уже написанный код лучше, надежнее, более читаемым, например, указать на некие спорные моменты, которые разработчик мог пропустить (предложить более подходящий пакет, указать на наличие существующей похожей функции в другой части кода, которую можно переиспользовать вместо написания новой и т.п.). Оптимизируя код, нейронная сеть улучшает программный продукт, подстраивая его под потребности и интересы потенциальных пользователей. Кроме того, рефакторинг позволяет сделать конечный код более структурированным и не загруженным – в дальнейшем с ним будет удобнее работать.
Нейросети могут использоваться и при работе с уже работающим кодом. Рефакторинг кода — это по сути его оптимизация и улучшение. Как говорится, нет предела совершенству. ИИ помощник на основе анализа может помочь сделать уже написанный код лучше, надежнее, более читаемым, например, указать на некие спорные моменты, которые разработчик мог пропустить (предложить более подходящий пакет, указать на наличие существующей похожей функции в другой части кода, которую можно переиспользовать вместо написания новой и т.п.). Оптимизируя код, нейронная сеть улучшает программный продукт, подстраивая его под потребности и интересы потенциальных пользователей. Кроме того, рефакторинг позволяет сделать конечный код более структурированным и не загруженным – в дальнейшем с ним будет удобнее работать.
Нейросети могут использоваться и при работе с уже работающим кодом. Рефакторинг кода — это по сути его оптимизация и улучшение. Как говорится, нет предела совершенству. ИИ помощник на основе анализа может помочь сделать уже написанный код лучше, надежнее, более читаемым, например, указать на некие спорные моменты, которые разработчик мог пропустить (предложить более подходящий пакет, указать на наличие существующей похожей функции в другой части кода, которую можно переиспользовать вместо написания новой и т.п.). Оптимизируя код, нейронная сеть улучшает программный продукт, подстраивая его под потребности и интересы потенциальных пользователей. Кроме того, рефакторинг позволяет сделать конечный код более структурированным и не загруженным – в дальнейшем с ним будет удобнее работать.
Нейросети могут использоваться и при работе с уже работающим кодом. Рефакторинг кода — это по сути его оптимизация и улучшение. Как говорится, нет предела совершенству. ИИ помощник на основе анализа может помочь сделать уже написанный код лучше, надежнее, более читаемым, например, указать на некие спорные моменты, которые разработчик мог пропустить (предложить более подходящий пакет, указать на наличие существующей похожей функции в другой части кода, которую можно переиспользовать вместо написания новой и т.п.). Оптимизируя код, нейронная сеть улучшает программный продукт, подстраивая его под потребности и интересы потенциальных пользователей. Кроме того, рефакторинг позволяет сделать конечный код более структурированным и не загруженным – в дальнейшем с ним будет удобнее работать.
Недостатки объектно-ориентированного программирования в WEB.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
Недостатки объектно-ориентированного программирования в WEB.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
Недостатки объектно-ориентированного программирования в WEB.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
Скажем так — определенно используется. Насколько часто — сильно зависит от платформы. Например, если вы возьмете ASP.NET так там 100% сайтов ООП. Потому как там — без вариантов с самого начала, там даже простое целое — уже класс (class).
Скажем так — определенно используется. Насколько часто — сильно зависит от платформы. Например, если вы возьмете ASP.NET так там 100% сайтов ООП. Потому как там — без вариантов с самого начала, там даже простое целое — уже класс (class).
Скажем так — определенно используется. Насколько часто — сильно зависит от платформы. Например, если вы возьмете ASP.NET так там 100% сайтов ООП. Потому как там — без вариантов с самого начала, там даже простое целое — уже класс (class).
ну это уже в какой круг попадешь. У меня знакомые кто в php писал проги все в основном на ООП, а сама тоже обучалась на ооп, да и фреймворки для разработки сайтов тоже модель mvc используют и ооп, ну kohana точно, да и остальные вроде как
ну это уже в какой круг попадешь. У меня знакомые кто в php писал проги все в основном на ООП, а сама тоже обучалась на ооп, да и фреймворки для разработки сайтов тоже модель mvc используют и ооп, ну kohana точно, да и остальные вроде как
ну это уже в какой круг попадешь. У меня знакомые кто в php писал проги все в основном на ООП, а сама тоже обучалась на ооп, да и фреймворки для разработки сайтов тоже модель mvc используют и ооп, ну kohana точно, да и остальные вроде как
Понимание таких вещей дает возможность писать логичные программы. По крайне мере для простых сайтов вообще не нужен наверно ООП, а вот если делать какие-то проекты или использовать фреймворки то без этого будет сложнее…
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
Понимание таких вещей дает возможность писать логичные программы. По крайне мере для простых сайтов вообще не нужен наверно ООП, а вот если делать какие-то проекты или использовать фреймворки то без этого будет сложнее…
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
Понимание таких вещей дает возможность писать логичные программы. По крайне мере для простых сайтов вообще не нужен наверно ООП, а вот если делать какие-то проекты или использовать фреймворки то без этого будет сложнее…
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
Водопад не любят не из-за того, что не понимают, его не любят из-за того, что он плохо подходит для сложных программных систем. Причин 2:
1. В современных условиях заказчик сам не знает и не может объяснить, чего же он в итоге хочет («чтоб было круто» — это не желание, это ощущение);
2. из-за п.1 бегать вверх-вниз по ступенькам водопада можно до бесконечности, как только проект переваливает определенную сложность (у нас в команде буквально за неделю аж 3 таких проекта появилось, притом так, что мы даже пока не знаем, в каких сроки и стоимость это получится уложить)
То, что вы озвучили в конце — это не разновидность водопада, это скорее спираль
Всем привет. Недавно открыл для себя интересный факт, что товарищ Винстон Ройс (Dr. Winston D. Royce), анонсируя свой знаменитый Waterfall говорил об итеративной модели разработки.
Наверняка, все, кто хоть как-то связаны с разработкой/тестированием ПО, знают о каскадной модели и об ее особенностях:
— высокий уровень формализации процессов;
— большое количество документации;
— и конечно же, жесткая последовательность этапов жизненного цикла без возможности возврата на предыдущий этап.
Изображение не загружено
Ознакомившись с выдержкой из трудов Ройса, оказалось, что он предусматривал обратные связи между этапами на одном уровне (к примеру, дизайн-кодирование, кодирование-тестирование и т.д.).
Насколько я понимаю разницу, во втором варианте, в отличии от первого, речь идет о параллельных работах по двум последовательным этапам, что дает возможность на более ранних стадиях выявить ошибки предыдущего этапа жизненного цикла и решает один из весомых недостатков «классического» водопада — невозможность возврата на предыдущий этап.
К примеру, если рассмотреть параллельные работы по 2 последовательным фазам — Coding и Testing, становится очевидным, что часть программы выдается в тестирование, в то время как другая часть все еще находится на стадии разработки.
Т.е. получается, что речь действительно идет об итеративной методологии разработки ПО.
В таком случае остается вопросом, почему методология в широких кругах разработчиков и тестировщиков воспринимается ошибочно, как отображено на первом рисунке…
Нужен ли вам Kubernetes? в первую очередь стоит задуматься — чтобы самостоятельно развернуть кластер Kubernetes, нужно подготовить оборудование (физические или виртуальные серверы), установить Kubernetes и затем настроить его. Настройка — самое сложное, потому что по умолчанию в Kubernetes нет всех нужных инструментов и надстроек. Для нормальной работы кластера потребуется настроить сеть и аутентификацию, сконфигурировать поды, организовать балансировку нагрузки, мониторинг, логирование и многое другое.
В общем, самостоятельное развертывание кластера — непростая задача, поэтому сначала стоит разобраться, нужна ли вам эта технология в принципе.
Kubernetes был создан Google на основе собственного опыта работы с контейнерами в производственной среде, и своим успехом он во многом обязан именно Google.
Так что же такое Kubernetes и для чего мы в принципе хотим использовать именно его, а не обычные контейнеры, например Docker.
Давайте вспомним что такое контейнеры.
Контейнеры упаковывают сервисы, составляющие приложение, и делают их переносимыми в различные вычислительные среды как для разработки и тестирования, так и для производственного использования. С помощью контейнеров легко быстро наращивать количество экземпляров приложений, чтобы соответствовать пиковому спросу. А поскольку контейнеры используют ресурсы ОС хоста, они намного легче виртуальных машин. Это означает, что контейнеры очень эффективно используют базовую серверную инфраструктуру.
Все было бы отлично, но есть одно но — container runtime API (API среды запуска контейнера) хорошо подходит для управления отдельными контейнерами, но совершенно не подходит для управления приложениями на сотне контейнеров и на большом количестве хостов.
Контейнерам надо подключаться к внешнему миру и быть управляемыми для балансировки нагрузки, распределения и планирования.
Вот для такого и нужен Kubernetes.
Kubernetes — это система с открытым исходным кодом для развертывания, масштабирования и управления контейнезированными приложениями.
Kubernetes по сути является не просто системой оркестрации. Технически оркестрация это про выполнение определенного рабочего процесса: сначала сделай A, затем B, затем C.
Kubernetes же устраняет прямую необходимость в этом. В нем есть процессы управления, что по факту независимы и компонуемы. Главная задача процессов управления перевести текущее состояние к нужному состоянию. Теперь нам неважно какой будет маршрут от А до С, что исключает централизованный контроль.
Благодаря этому система теперь более проста в использовании, мощная, надежная, а также устойчивая и расширяемая.
Контейнеры позволяют поделить чтобы приложения были поделены на более мелкие части с четким разделением задач. Уровень абстракции, предоставляемый для отдельного образа контейнера, позволяет нам понять как строятся распределенные приложения. Такой модульный подход дает возможность более быстро осуществлять разработку с помощью небольших и более целенаправленных групп, каждая из которых отвечает за определенные контейнеры. Это также позволяет нам изолировать зависимости и более широко использовать компоненты меньшего размера.
Сделать это только с помощью контейнеров не получится. А вот в Kubernetes это можно достичь с помощью Pods (подов).
Pod (под) — это группа из одного или более контейнера с общим хранилищем/сетевыми ресурсами и спецификацией как запускать контейнеры. Так же это отдельный инстанс приложения. Размещая контейнеры таким образом, Kubernetes устраняет соблазн втиснуть слишком много функций в один образ контейнера.
Концепция Service (Сервисы) в Kubernetes используется для группирования нескольких подов, которые выполняют те же функции. Сервисы легко настраиваются для таких целей как обнаружение, горизонтальное масштабирование и балансировка нагрузки.
Приветствую, коллеги!
Хотел бы добавить еще одну Российскую СУБД, которую можно отнести к классу мультимодельных — ODANT.
1. Хранилище данных реализовано в виде DOM структур (можно было бы сказать XML, но это не так, хотя для удобства пользователей эти бинарные DOM структры могут быть получены через REST API в виде XML, JSON, HTML и т.п.), поддерживаются языки запросов XQuery и XUpdate.
2. Организовано хранилище в виде древовидной иерархии, которая может распространяться на любое количество распределенных серверов (нод).
3. Ветви в иерархии являются объектными Классами, которые могут содержать экземпляры (Объекты). В этих Классах полностью реализована объектная парадигма (наследование, полиморфизм, инкапсуляция и т.д.), но не на программном, а на информационном уровне.
4. Информационные Классы, помимо описания модели (свойств) и хранения экземпляров, могут содержать встроенные (кастомные) методы и представления, которые автоматически добавляются в API сервера.
5. Типизация данных реализована на основе собственных же информационных Классов (т.е. количество типов данных равно общему количеству находящихся в сети ODANT различных Классов, на сегодня >10 000)
6. Написана на С++, поддерживает ОС Windows, Linux 1.8+ (кстати есть сертификат под Астру) и процессоры x86, MIPS, ARM.
7. Имеет встроенный объектно-рекактивный язык программирования ROCKS.js (диалект ECMAScript), работающий с единой кодовой базой как на стороне сервера, так и клиента.
8. Имеет встроенный визуальный объектно-рекативный PWA фреймворк ODAJS (работает на всех современых браузерах, и в виде PWA приложений под Windows, Android, IOS).
9. 99% — Российская (1% — Node.js, использующаяся на стороне сервера для обработки ROCKS модулей)
10. Несмотря на то, что СУБД разрабатывалась с 1998 года, она мало известна. на сегодняшний день всего около 400 внедрений, в основном сложные системы управления деятельностью в ЖКХ, медицине, энергетике, госуправлении (одно из решений получило статус ГИС), есть 2 успешных проекта полной замены SAP в одной госкорпорации.
11. С 2017 года находится реестре отечественного ПО
Для этого лучше использовать данные с синтетических тестов для производительности. А вот параметры удобства и т.д., наверное, лучше смотреть в сравнениях конкретных СУБД. Но сама идея взять несколько кейсов и сделать сравнение по типам хорошая, хотя скорее всего будут явные лидеры и много исключений, не попадающих в методологию сравнения.
Отличная система! DST Platform помогла мне справиться с самыми сложными проектами без лишних сложностей. Я не очень опытный в программировании, но благодаря этой системе я могу легко публиковать и управлять проектами. Очень удобный и интуитивно понятный интерфейс, который делает работу с системой приятной и эффективной. Большой плюс в том, что DST Platform имеет открытый исходный код, что обеспечивает дополнительную безопасность. Рекомендую всем, кто ищет надежную и удобную систему для работы с проектами любой сложности!
Отличная система! DST Platform помогла мне справиться с самыми сложными проектами без лишних сложностей. Я не очень опытный в программировании, но благодаря этой системе я могу легко публиковать и управлять проектами. Очень удобный и интуитивно понятный интерфейс, который делает работу с системой приятной и эффективной. Большой плюс в том, что DST Platform имеет открытый исходный код, что обеспечивает дополнительную безопасность. Рекомендую всем, кто ищет надежную и удобную систему для работы с проектами любой сложности!
DST Strore лучшее готовое решение для быстрого создания интернет-магазина с широкими возможностями, хорошим дизайном и оптимальными техническими характеристиками… Движок со всеми необходимыми модулями для интернет-коммерции.
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Создает ли GitHub Copilot идеальный код? К сожалению, нет. На официальном сайте можно прочитать, что, хотя создатели прилагают все усилия, чтобы инструмент предлагал наилучшее соответствие, нет гарантии, что предложенные решения будут работать на практике. Так, в рамках тестирования на языке Python, программа эффективно справилась с 43% запросов с первого раза и сгенерировала правильный работоспособный код после 10 попыток в 57% случаев. По этой причине очень важно тщательно проверять и тестировать каждое решение, предложенное нейросетью перед эксплуатацией.
Помимо Copilot также существует масса других специализированных ИИ-сервисов, таких как StarCoder, Wolverine, Blackbox AI. Эти инструменты предназначены для поддержки разработчиков в различных аспектах программирования, включая написание кода, автоматическую отладку, анализ и предложения по улучшению кода. Я с ними ознакомился лишь поверхностно, а потому буду признателен, если поделитесь своими впечатлениями и опытом работы в комментариях!
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Генерация кода
Нейронные сети, обученные на данных по работе с кодом, могут создавать их фрагменты или создавать полноценные функции в соответствии с заданным программистом текстовым описанием. Обучение нейронных сетей на данных по работе с кодом, проходит в несколько этапов. Эти этапы включают сбор данных, предварительную обработку, обучение модели и тестирование.
Сбор данных:
— Источники данных: Нейронные сети обучаются на данных из различных источников, таких как репозитории кода на GitHub, вопросы и ответы на форумах вроде StackOverflow, а также на других открытых ресурсах, связанных с программированием.
— Типы данных: Включаются примеры кода, комментарии к коду, обсуждения проблем и решений, документация и учебные материалы.
Предварительная обработка данных
— Очистка данных: На этом этапе удаляются дубликаты, комментарии, не относящиеся к коду, и любые другие нерелевантные данные. Важные данные, такие как комментарии программистов, могут быть сохранены для анализа контекста.
— Разметка данных: Код размечается с учетом синтаксиса и семантики. Это включает идентификацию структур кода, таких как функции, классы, переменные и комментарии.
— Разделение данных: Данные разделяются на обучающую, валидационную и тестовую выборки для последующего обучения и проверки модели.
Обучение модели
— Архитектура модели: Выбирается архитектура нейронной сети, подходящая для задач обработки естественного языка и программного кода.
— Процесс обучения: Модель обучается предсказывать следующую строку кода или исправление ошибки на основе предыдущего контекста. Используются техники машинного обучения, такие как градиентный спуск и обратное распространение ошибки.
— Использование контекста: Модель обучается понимать контекст кода. Это достигается путем обучения на больших последовательностях кода, где модель учится предсказывать фрагменты кода, исходя из окружающего контекста.
Тестирование и валидация
— Оценка производительности: Модель оценивается на тестовой выборке, где измеряется ее точность в предсказании корректных фрагментов кода и исправлений.
— Исправление ошибок: Модель тестируется на способности обнаруживать и исправлять ошибки в коде. Проверяется, насколько эффективно она может предложить правильные исправления.
— Итеративное улучшение: На основе результатов тестирования модель дорабатывается и дообучается для повышения ее точности и надежности.
Эти шаги обеспечивают создание мощных инструментов, которые могут помогать разработчикам писать, исправлять и оптимизировать код, основываясь на обширном опыте и данных, накопленных из множества источников.
Поиск ошибок и исправление синтаксиса
Благодаря анализу контекста и обработке естественных языков, нейронные сети могут в автоматическом режиме находить ошибки, допущенные при создании кода, и исправлять их. При выполнении этой задачи технология основывается на синтаксисе, который используется при создании программного продукта – это позволяет предлагать разработчикам точные и действенные решения, экономя их время.
Вот более конкретные аспекты этой технологии:
— Контекстуальный анализ: Нейронные сети, такие как Codex и Copilot, анализируют весь доступный кодовый контекст, включая предыдущие строки, функции и комментарии. Это позволяет им понимать, как каждая часть кода взаимодействует с остальными частями программы, что особенно важно при поиске ошибок.
— Распознавание языка программирования: Нейросети обучены на огромном количестве данных, включающих множество языков программирования, таких как Python, JavaScript, Java, C++, Go и другие. Это позволяет им автоматически распознавать язык программирования и применять соответствующие правила синтаксиса и семантики.
— Обнаружение синтаксических ошибок: При анализе кода нейросети могут обнаруживать синтаксические ошибки, такие как неправильное использование скобок, отсутствие точек с запятой или некорректное объявление переменных. Например, если в коде на Python пропущен двоеточие после конструкции if, нейросеть может это заметить и предложить исправление.
— Семантический анализ: Помимо синтаксических ошибок, нейросети также способны выявлять семантические ошибки, которые связаны с логикой программы. Например, они могут обнаружить неправильное использование типов данных или несовместимость между аргументами функции и ее вызовом.
— Точность и ошибки: Хотя нейросети обладают высокой точностью при обнаружении и исправлении ошибок, они не безупречны. В некоторых случаях они могут ошибаться, предлагая некорректные исправления или не замечая более сложные логические ошибки. Поэтому разработчики должны проверять предложенные изменения и использовать их с осторожностью.
— Обратная связь и обучение: Нейросети продолжают улучшаться благодаря обратной связи от пользователей. Когда разработчики принимают или отклоняют предложенные исправления, эта информация используется для дальнейшего обучения моделей, что со временем повышает их точность и надежность.
Именно таким образом нейронные сети используют контекст и знание языков программирования для автоматического обнаружения и исправления ошибок, делая процесс разработки более эффективным и удобным.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
Я давно и успешно применяю ООП — в сущности с самого момента его возникновения. Собственно, даже начала программирования мне преподавали по обьектно-ориентированным языкам, типа ALGOL-68. Большинстве кода на моем сайте вообще выложено на бейсике — а это на сегодня, вне всякого сомнения, САМЫЙ обьектно-ориентированный язык из существующих на этой планете. Которому пытаются подражать множество других языков, например новоиспеченный СиШарп (в котором даже в прошлом году уже даже появились анонимные типы, существовавшие в бейсике еще с 1998 года). Кое-какие элементы подражания обьектным возможностям бейсика есть и Яве и на прочих более простых языках. Но ни один более простой язык пока не приблизился к бейсику даже по количеству квалификаторов у методов/классов (а тем более по количеству всевозможных сокращений и умолчаний для ускорения обьектного программирования). Для примера вы легко можете любую Ява-прогу протранслирвать в более крученый Шарп. Но не наоборот. А шарп, хоть и использует тот же фреймворк, что и бейсик — но это язык подражатель. В нем постарались в более ли менее стандартном и распространившемся синтаксисе сделать доступ к тем же возможностям, которые были в бейсике (для NET и для COM) всегда. Однако, обратите внимание, что в огромном количестве мест в БилоГейтсовской идеологии применение Шарпа даже не декларируется! Никто не говорит, что VBA не будет, а языком автоматизации офисных приложений будет убогий новоиспеченный Шарп. Никто не говорит что НАТУРАЛЬНЫЕ COM-обьекты (без NET) когда-нибудь можно будет создавать на Шарпе. А ведь создание натуральных COM-обьектов — это базовая технология бейсика (ну и на С++ это тоже конечно возможно, только на C++ невозможно в приемлимые сроки сделать почти ничего из того, что обычно делают на бейсике). Никто не декларирует доступ к WMI из убогого новоиспеченного Шарпа. Никто не делает и не будет делать автоматизацию SSIS-пакетов для SQL-сервера на убогом шарпе. Поэтому бейсик-программисты так презрительно относятся к шарперам — что можно сделать на шарпе? Только облизнуться и расписаться в собственном бессилии, когда надо что-нибудь сделать на VBA, для WSH, для SSIS, создать натуральный COM-обьект и так далее. Проще говоря, даже во внутривидовой микрософтовской конкуренции Шарп — лишь убогое отражение/подражание старого и долго развивающегося бейсика. Шарп занимает ислючительно узкую нишу в билогетсовской идеологии и даже не покушается на безраздельное господство бейсика. Ну не говоря уже о межвидовой конкуренции (прогу на Шарпе с продвинутыми возможностями обьектного программирования вы не оттранслируете ни в какой другой язык, кроме конечно бейсика — но не наоборот — любой более убогий язык можно автоматически преобразовать даже в Шарп, не говоря уже о бейсике). Надеюсь этого пояснения достаточно для не владеющих бейсиком людей — чтобы понять, куда они попали — на страничку к бейсик-программисту. К программисту на самом обьектном в мире языке.
И как вы можете видеть по моим OpenSource и моим рецептам на этом сайте — я достаточно реально владею всеми возможностями этого самого продвинутого обьектного языка в мире. Я постоянно пишу Джеренерики, часто переопределяю в своих классах поведение отдельных методов в нижестоящей иерархии классов, постоянно создаю в своих классах события, я пишу свои делегаты с особыми параметрами, у меня горы многопоточных прог, типа прокси серверов, в которых надо тонко управлять синхронизацией ресурсов, я часто применяю маршализацию из одного потока в другой, а когда обрабатываю нерегулярные структуры — я создаю обьекты унаследованными от единого интерфейса. Часто применяю ad-hoc полиморфизм. Ну и так далее — для определенности начните со странички Практическое применение наследования, полиморфизма, интерфейсов, дженериков и делегатов на примерах в Visual Basic .NET. Перечень практически применяемых мною механизмов обьектного программирования бейсика — огромный. Настолько огромный, что для программистов на более простых языках даже затруднительно обьяснить что вообще такое делегат или дженерик — а тем более сложно обьяснить, чем применение того или иного обьектного механизма отличается у начинающего программиста от применения того же механизма опытным программистом. Но…
Но в этой заметке я бы хотел сосредоточится не на достоинствах объектно-ориентированного подхода (ООП), а на его НЕДОСТАТКАХ.
Увы, их так много, что непонятно чего же все-таки в обьектом программировании больше — достоинств или недостатков. Но о достоинствах вы наверняка прочитаете у кого-нибудь другого, кто попал в программирование СЛУЧАЙНО и занимается им совсем недолго 5-10-15 лет и при первой же возможности постарается выйти из этого дела на пенсию, став архитектором, начальником ИТО, тех.директором и так далее. Как правило, контингент таких мелких, случайных людишек является конформистами и старается максимально ПОДДЕРЖИВАТЬ текущую доминирующую струю.
Психологически, порочный круг, из которого трудно выскочить таким неокрепшим мозгам, состоит в том, что чем вещь ХУЖЕ, тем больше необходимо ее НАХВАЛИВАТЬ и, выпячивая НЕСУЩЕСТВЕННОЕ, умалчивать ГЛАВНОЕ. Иначе никак это НЕ ПРОДАТЬ. Особенно в этом гнусном занятии нахваливания ООП преуспела MS — поставив эту технику (которую трудно вообще-то отделить от мошенничества) на поток и зомбируя таким образом биомассу — УВЕЛИЧИВАЯ ОБЬЕМЫ СВОИХ ПРОДАЖ.
Не думаю, что MS смогла бы настолько набить свои карманы — продолжая развивать и совершенствовать Visual InterDev. Ведь он прост и вообще при минимальном опыте программирования легко заменим нотепадом. И как за это сорвать 50 тысяч долларов? Я сам не парясь его напишу весь за месяц (это же простой рич-текст-бокс с подсветкой!) — и куча народу уже сделала это преотлично и выложила бесплатно свои творения.
Но насколько технологии Visual InterDev лучше Visual Studio 2008 — говорить в среде конформистов почему-то совсем не принято. А мы поговорим об этом!
1. ООП-подходы уменьшают срок жизни программного обеспечения.
Реальность такова, что среда программирования меняется каждые пол-года — год. Возьмем наприме .NET FRAMEWORK. На протяжении последних пяти-шести лет среда сменилась множество раз:
NET 1.1 => NET 1.3 => NET 2.0 => NET 3.0 => NET 3.5
Каждый из созданных в некоторой среде объектов невозможно применить в последующей. Причем это верно даже для близко родственных сред, сделанных с совсем небольшим временным лагом — например попытка использовать на сайте NET 3.5 обьектов (зашитых в библиотеки) и сделанных на NET 3.0 приводит к фатальным ошибкам еще даже на этапе компиляции проекта.
Что уж говорить о не столь близкородственных фреймворках. MS публикует огромные списки функционала, который не поддерживается в последующих версиях его среды относительно предыдущих — например вот такой список msdn.microsoft.com/en-us/netframework/aa497288.aspx
И каким образом откомпилированный под NET 1.1 обьект должен работать в сайте под NET 4.0? А ведь такая библиотека — обьект собственности, стоимостью сотни тысяч долларов и миллионы. И какой срок жизни этой собственности?
Этот вопрос совсем не праздный, Например мой сайт www.gisis.ru использует 72 библиотеки. Часть из них сделана не мною. Давно. Году скажем в 2002-м. Стоимость этих библиотек весьма немалая. Например три программиста с ЗП в в три тысячи долларов, написавшие такую библиотеку за год — дают ей стоимость 3х3х12 = 108 тысяч долларов (без налогов). И кому нужна такая библиотека, если ею уже через полгода невозможно воспользоватся?
Люди давно уволились… И переписать эти обьекты сложнее, чем написать новые…
2. Текстовые скрипты основаны на ANSI-коде — поэтому дешевле, стабильнее и живут дольше.
Итак, изменчивость среды компиляции относительно ANSI-кода — дает нам первый элемент нестабильности и нежизнеспособности ООП и компилированных DLL относительно простых текстовых скриптов, типа простого ASP или PERL.
Хотя, если бы ANSI-кодом заведовала бы MS — она бы нашла поводы, каждые полгода выпускать новый ANSI-код под новую студию, которую надо было бы КУПИТЬ…
3. MS-cреда объектного программирования стоит безумно дорого.
Ну сколько стоят MS-проги я уже писал на своем хомячке. Повторятся ниахота, но это ДЕСЯТКИ ТЫСЯЧ ДОЛЛАРОВ. Зато ZEND в самой продвинутой профессиональной версии стоит $60 — примерно В ТЫСЯЧУ РАЗ ДЕШЕВЛЕ. А нотепад (с подсветкой ключевых слов) которым часто пользуются в средах программировования без ООП — вообще ничего не стоит.
Зафиксируйте для себя в мозгу этот коэффициент — не в два-три раза дороже обьектное программирование простого, А МИНИМУМ В ТЫСЯЧУ!
Я не имею ввиду усеченные версии для случайных простофиль — такое, что никак невозможно использовать на практике — MS вообще распространяет бесплатно, как наживку. Речь конечно идет о системах профессионального программирования.
4. Алгоритмически, обьектно-ориентированный подход — всего лишь замена параметризации.
Если обратить внимание на идеологическую сторону ООП-программирования — то вообще-то обьектно-ориентированный подход (наследование, полиморфизм и прочая лабуда) — они все-лишь ЗАМЕНЯЮТ параметризацию алгоритмов. Ну типа как развязки с флагами и IF-ами заменяют GOTO.
Не более. Абсолютно любой алгоритм с наследованием и полиморфизмом можно реализовать БЕЗ ООП, просто параметрами, передаваемыми процедурам. Причем это будет в разы быстрее, чем виртуальзация методов, обработки VTAB и прочая лабудень матрешечного программирования.
5. ООП-подходы усложняют программирование и особенно отладку.
Не думаю, что этот тезис просто понять посторонним функционерам от программирования. Для этого надо быть программистом. Но программисты меня поймут — что значит отладить простой тектовый линейный скриптик и отладить целую матрешку из классов, где внешние классы переопределяют функционал внутренних классов, даже конструкторы классов выполяняются в хитром порядке. Кто отлаживал чужие матрешки, основанные на шизе наследования — тот знает о чем я говорю…
Ругаемые GOTO и рядом не валялись со сложностью отладки ООП-матрешек…
6. Проектирование систем, основанных на ООП — дорого. А модификация — еще дороже.
ООП предполагает, что некий функционал делается доступным снаружи, а некий — утапливается во-внутрь. Потом то все как правило компилируется в готовую библиотеку, предоставляющую пользователю некий внешний интерфейс.
Идея тут в том, что ТРУДОЕМКОСТЬ модификации внутреннего функционала тысячекратно превышает трудоемкость использования обьекта в целом. В отличии от такого подхода линейные текстовые скрипты не имеют такой разницы в трудоемкости модификации внутренних алгоритмов и внешне-предоставляемого пользователю интерфейса.
Но это значит, что внешние интерфейсы и внутренние ООП-алгоритмов должны быть очень тщательно проработаны (что автоматически означает трудоемкость их модификации). В отличие от простых линейных текстовых скриптов (с подпрограммами), не требующих такого тщательного проектирования, строгой фиксации интерфейсов между уровнями приложения и допускающих легкую модификацию в ЛЮБОЙ части кода в любой момент эксплуатации.
7. Закрытый функционал объектов — источник багов (и источник наживы).
В среде программистов не вызывает сомнений, что любой ЗАКРЫТЫЙ, потаенный алгоритм — это просто глюк. Это аксиома, на которой стоит криптография, например.
ООП весь построен на существовании закрытых алгоритмов и внешних интерфейсах к этим алгоритмам. Алгоритм и его програмный код — который нельзя увидеть всем — это просто неисчерпаемый источник багов и глюков.
Другая сторона закрытости (кроме глюковатости) — такой код является ИСТОЧНИКОМ НАЖИВЫ. В отличие от простых текстовых скриптов, которые доступны ВСЕМ и продавать их практически невозможно. Закрытость и глюкавость — это многомиллиардный плюс для кошелька билла-дебила, ну а для нас?
8. Обьектно ориентированное программирование — это медленно.
Что такое каждый NEW в проге? Это выделение памяти из кучи. Возьмите главу 20 рихтера и почитайте про выделение памяти из кучи. И про алгоритм сборки мусора, который в NET 2.0 содердит аж в 10 000 (десять тысяч раз) БОЛЬШЕ кода, чем в NET 1.1
Какие кучи, какие обьекты, какие сборки мусора? Гугл работает на простых текстовых процессорах (типа PERL) — никогда не слышал ни про какой бред в виде выделения памяти из каких-то управлямых куч — и даже НЕ РАССМАТРИВАЕТ ООП как возможную технологию для примения в своих WEB-технологиях.
Не рассматривает, ИБО ТОРМОЗА…
9. ООП-подходы вообще притянуты к WEB-программированию без оснований.
Что такое Web-программирование? Это ТЕКСТ в ANSI-кодировке, который пришел по протоколу HTTP 1.1 из интернета на Web-сервер. Текст, который должен быть проанализирован и текст же, должен быть отправлен назад и интернет в виде отклика Web-сервера.
И где вы тут видите вообще упоминание каких-то обьектов?
Текст пришел — текст ушел. И множество движков, типа PHP или PERL так и работают. Кто сказал, что надо этот текст надо обрабатывать какими-то обьектами? Которые должны быть ОТКОМПИЛИРОВАНЫ в виде расширения IIS? Что за бред? И что эти обьекты должны итог своей работы СЕРИАЛИЗОВАТЬ ОБРАТНО в текст?
Но MS, паразитируя на рынке информационных технологий, проталкивает этот бред в наши мозги — ВМЕСТО ТОГО ЧТОБЫ ДОВОДИТЬ ДО СОВЕРШЕНСТВА ТЕКСТОВЫЕ ПРОЦЕССОРЫ. И весьма приуспела в этом…
10. Топовые по распространенности языки не имеет ООП-примочек.
Самый распространенный язык — как вы понимаете — HTML. Он не имеет приблуд в виде ООП. (Яваскрипт — не HTML- не путать).
Второй самый распространенный язык XML. Например, каждый мобильник имеет XSLT-преобразовтель для CSS. И где тут обьекты и вся ООП-шизофрения?
И третий по распространенности язык — SQL. Он тоже не имеет никаких матрешечных примочек.
Ну про языки Web-программирования и говорить нечего. Пожалуй лишь пара из них имеет пришлепки в виде матрешечного программирования…
11. Управление контентом откомпилированных сайтов весьма сложно и дорого.
Многие мои заказчики были просто в шоке, когда асазнали, что они не могут просто поправить верстку в нотепаде и разместить новости на сайте, сделанном на ASP.NET. Я рассказал им, что надо что-то поменять в базе — или вручную или для этого нужны НОВЫЕ CMS-формы, которые НАДО ПИСАТЬ…
Ну там про утапливание функционала поглубже — рассказал. Типо это пиридавое — если поменять просто так сложно. Типо есть внешний интерфейс обьектов — он и предназначен для замены, и вся изменчивость — должна быть ПРЕДВАРИТЕЛЬНО оговорена и вынесена ВНАРУЖУ обьектов, а что внутрии — то низзя просто так менять…
«Не, ну я понимаю — это ваши программистские игры» — говорили заказчики — «мне надо просто поменять допустим фамилию Иванов на Петров, но сегодня я пока еще не знаю о том, что мне потребуется поменять — как мне это сделать на твоих ASP.NET формах?»
«Ну а как добавить на сайт пару новостей или сменить верстку? Сейчас у нас сидит девочка и в нотепаде правит страничку и размещает там что хочет. Не морочь нам голову — как это сделать в ASP.NET без всех этих заморочек?»
Что на это ответить? Кроме рассказов о необходимости профинансировать разработку CMS? Иногда брали редактор бинарников и правили Иванова на Петрова… Если новоя фамилия без инициалов было не длинее старого с инициалами!
12. Программы делаются для людей, а не для машин.
Если же вглянуть на OOП с иной стороны — cо стороны MAIN-стрим движений в программировании. То что мы увидим? Этот мейн-стрим — это доступность и понятность всяких технических сложностей для человека. Прозрачность технологий. Ясность и предсказуемость действий машин и механизмов.
То, что ЧИТАЕМО и ПОНИМАЕМО человеком ЯСНО и без гимороя — гут, а там где бинарник с загадочными и глючными алгоритмами — это бед. Собственно, именно на этом посыле основано повсеместное распространение XML, HTTP, WEB-служб и даже XAML или WPF и WPF/E.
В этом аспекте — ASP.NET — полное противопоставление XML, HTTP, WEB-служб, XAML, WPF. Обожаю за это MS — у нее ВСЕГДА левая нога шагает в одну сторону, а правая — в другую. На благодаря технологиям зомбирования биомассы — задница все равно на мешке с деньгами!
МS полностью зациклилась.
Наконец-то, даже MS вынуждена признать недостатки своей идеи строгой типизации, которой она так долго гадила нам в мозг — наконец-то MS ввела АНОНИМНЫЕ ТИПЫ, что и есть фактически отказалась от строгой типизации.
Фактически LINQ — это и есть роспись с печатью в собственной неполноценности. В неполноценности идей, на размусоливании которых так долго MS набивала свои карманы. И в неполноценности своих якобы фантастических по мыслительному потенциалу подразделений — типо MS ресеч.
Жаль только широкая публика не оценила по достоинству этот прикол — все маршировали-маршировали в направлении строгой типизации (например хвалили ImageButton, так непохожий на Image и еще более непохожий на LinkButton!), потом хопа — и развернулись в противоположную сторону и стали хвалить переменные, позволяющие указывать и на ImageButton и на Image и на LinkButton. А стадо баранов этого и не заметило и продолжает послушно маршировать за билом-дебилом…
Похоже, МS думает — не имеет значение чем гадить в мозг программистам — лишь бы карманы набивать. А нам остается только удивлятся — с чего вдруг было хорошо ASP, все книги были расписаны от корки до корки ДОСТОНСТВАМИ неоткомпилированных программ на чистых текстах в Visual InterDev, потом вдруг в MS все умолкли про достоинства ASP, и стали говорить, что наоборот хорошо, когда все утоплено из текстов в библиотеки в Visual Studio 2002. Потом оказалось что не только хорошо, когда все ПРОСТО утоплено в библиотеки, а даже хорошо, что все очень-очень типизированно (и даже код заполнения DATALIST полностью отличается от кода заполенения GRIDVIEW !!!), потом вдруг это перестало считаться достоинством, а стало считаться недостатком и появились анонимные типы. Наверное дальше разработчиков анонимных типов и их дебильного LINQ в MS заклеймят как глупцов и давай опять по кругу. Не важно, о чем трещать — лишь бы карманы набивать.
Все это приемлимо лишь для случайных проходимцев, попавших в программирование ненадолго — на 5-10-15 лет и желающих побыстрее соскочить с этого дела. Но для тех, кто этим все занимается достаточно долго, профессионально и с удовльствием — смотреть на это безобразие отвратительно.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
ООП не раз подвергалось критике. Одно из самых ярких обвинений прозвучало от британского программиста — Джо Армстронга.
Проблема с объектно-ориентированными языками заключается в том, что у них есть вся эта неявная среда, которую они носят с собой. Вы хотели банан, но получили гориллу, держащую банан и все джунгли.
Это во многом справедливо. Помимо недостаточно качественной поддержки параллельных и распределенных систем, ООП отличается относительно низким качеством конечного продукта.
В процессе трансляции объектно-ориентированных программ в исполняемый код центрального процессора возникает ряд неоптимальностей по использованию памяти и вычислительного времени процессорных ядер.
ООП предоставляет вам множество способов замедлить работу ваших программ.
А небезызвестный Линус Торвальдс часто критиковал ООП и С++ в частности, упоминая в том числе отсутствие ограничений. Речь о том, что большое количество инструментов и методов позволяет добиваться функционально одинаковых реализаций множеством различных способов. Это можно было бы считать преимуществом, но появляется риск ошибок, обнаружить которые очень сложно. Наследование объектов может привести к тому, что баг «вылезет» в неожиданном месте, далеко от исходной неточности в описании «родителя».
В нулевых годах начали массово распространяться многоядерные и многопроцессорные системы. Возникла потребность в распределенных вычислениях, а чуть позже в вычислениях на графических процессорах. Оказалось, что ООП справляется с такими задачами значительно хуже, чем функциональные программы. Даже исходя из одного этого фактора, можно усомниться в бесконечном доминировании ООП.
Конечно, пропорции в разработке будут меняться. Это уже происходит. Кроме того, рано или поздно появятся принципиально другие, новые подходы — и они могут оказаться недостижимо более производительными, особенно на модернизированном железе.
Тем не менее, пока что ООП остается надёжным, удобным инструментом. Похоже, в ближайшие годы ничего не предвещает серьезных подвижек, так что можно смело использовать объектно-ориентированное программирование и в качестве личного карьерного плана, и для запуска проектов.
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
Для сайтов почти всегда хватает обычного модульного программирования. Да и вообще к примеру если за основу брать php — то часто встречал утверждения, что в ней ООП плохо реализовано и мало кто этим пользуется.
1. В современных условиях заказчик сам не знает и не может объяснить, чего же он в итоге хочет («чтоб было круто» — это не желание, это ощущение);
2. из-за п.1 бегать вверх-вниз по ступенькам водопада можно до бесконечности, как только проект переваливает определенную сложность (у нас в команде буквально за неделю аж 3 таких проекта появилось, притом так, что мы даже пока не знаем, в каких сроки и стоимость это получится уложить)
То, что вы озвучили в конце — это не разновидность водопада, это скорее спираль
Наверняка, все, кто хоть как-то связаны с разработкой/тестированием ПО, знают о каскадной модели и об ее особенностях:
— высокий уровень формализации процессов;
— большое количество документации;
— и конечно же, жесткая последовательность этапов жизненного цикла без возможности возврата на предыдущий этап.
Изображение не загружено
Ознакомившись с выдержкой из трудов Ройса, оказалось, что он предусматривал обратные связи между этапами на одном уровне (к примеру, дизайн-кодирование, кодирование-тестирование и т.д.).
Насколько я понимаю разницу, во втором варианте, в отличии от первого, речь идет о параллельных работах по двум последовательным этапам, что дает возможность на более ранних стадиях выявить ошибки предыдущего этапа жизненного цикла и решает один из весомых недостатков «классического» водопада — невозможность возврата на предыдущий этап.
К примеру, если рассмотреть параллельные работы по 2 последовательным фазам — Coding и Testing, становится очевидным, что часть программы выдается в тестирование, в то время как другая часть все еще находится на стадии разработки.
Т.е. получается, что речь действительно идет об итеративной методологии разработки ПО.
В таком случае остается вопросом, почему методология в широких кругах разработчиков и тестировщиков воспринимается ошибочно, как отображено на первом рисунке…
В общем, самостоятельное развертывание кластера — непростая задача, поэтому сначала стоит разобраться, нужна ли вам эта технология в принципе.
Так что же такое Kubernetes и для чего мы в принципе хотим использовать именно его, а не обычные контейнеры, например Docker.
Давайте вспомним что такое контейнеры.
Контейнеры упаковывают сервисы, составляющие приложение, и делают их переносимыми в различные вычислительные среды как для разработки и тестирования, так и для производственного использования. С помощью контейнеров легко быстро наращивать количество экземпляров приложений, чтобы соответствовать пиковому спросу. А поскольку контейнеры используют ресурсы ОС хоста, они намного легче виртуальных машин. Это означает, что контейнеры очень эффективно используют базовую серверную инфраструктуру.
Все было бы отлично, но есть одно но — container runtime API (API среды запуска контейнера) хорошо подходит для управления отдельными контейнерами, но совершенно не подходит для управления приложениями на сотне контейнеров и на большом количестве хостов.
Контейнерам надо подключаться к внешнему миру и быть управляемыми для балансировки нагрузки, распределения и планирования.
Вот для такого и нужен Kubernetes.
Kubernetes — это система с открытым исходным кодом для развертывания, масштабирования и управления контейнезированными приложениями.
Kubernetes по сути является не просто системой оркестрации. Технически оркестрация это про выполнение определенного рабочего процесса: сначала сделай A, затем B, затем C.
Kubernetes же устраняет прямую необходимость в этом. В нем есть процессы управления, что по факту независимы и компонуемы. Главная задача процессов управления перевести текущее состояние к нужному состоянию. Теперь нам неважно какой будет маршрут от А до С, что исключает централизованный контроль.
Благодаря этому система теперь более проста в использовании, мощная, надежная, а также устойчивая и расширяемая.
Контейнеры позволяют поделить чтобы приложения были поделены на более мелкие части с четким разделением задач. Уровень абстракции, предоставляемый для отдельного образа контейнера, позволяет нам понять как строятся распределенные приложения. Такой модульный подход дает возможность более быстро осуществлять разработку с помощью небольших и более целенаправленных групп, каждая из которых отвечает за определенные контейнеры. Это также позволяет нам изолировать зависимости и более широко использовать компоненты меньшего размера.
Сделать это только с помощью контейнеров не получится. А вот в Kubernetes это можно достичь с помощью Pods (подов).
Pod (под) — это группа из одного или более контейнера с общим хранилищем/сетевыми ресурсами и спецификацией как запускать контейнеры. Так же это отдельный инстанс приложения. Размещая контейнеры таким образом, Kubernetes устраняет соблазн втиснуть слишком много функций в один образ контейнера.
Концепция Service (Сервисы) в Kubernetes используется для группирования нескольких подов, которые выполняют те же функции. Сервисы легко настраиваются для таких целей как обнаружение, горизонтальное масштабирование и балансировка нагрузки.
Хотел бы добавить еще одну Российскую СУБД, которую можно отнести к классу мультимодельных — ODANT.
1. Хранилище данных реализовано в виде DOM структур (можно было бы сказать XML, но это не так, хотя для удобства пользователей эти бинарные DOM структры могут быть получены через REST API в виде XML, JSON, HTML и т.п.), поддерживаются языки запросов XQuery и XUpdate.
2. Организовано хранилище в виде древовидной иерархии, которая может распространяться на любое количество распределенных серверов (нод).
3. Ветви в иерархии являются объектными Классами, которые могут содержать экземпляры (Объекты). В этих Классах полностью реализована объектная парадигма (наследование, полиморфизм, инкапсуляция и т.д.), но не на программном, а на информационном уровне.
4. Информационные Классы, помимо описания модели (свойств) и хранения экземпляров, могут содержать встроенные (кастомные) методы и представления, которые автоматически добавляются в API сервера.
5. Типизация данных реализована на основе собственных же информационных Классов (т.е. количество типов данных равно общему количеству находящихся в сети ODANT различных Классов, на сегодня >10 000)
6. Написана на С++, поддерживает ОС Windows, Linux 1.8+ (кстати есть сертификат под Астру) и процессоры x86, MIPS, ARM.
7. Имеет встроенный объектно-рекактивный язык программирования ROCKS.js (диалект ECMAScript), работающий с единой кодовой базой как на стороне сервера, так и клиента.
8. Имеет встроенный визуальный объектно-рекативный PWA фреймворк ODAJS (работает на всех современых браузерах, и в виде PWA приложений под Windows, Android, IOS).
9. 99% — Российская (1% — Node.js, использующаяся на стороне сервера для обработки ROCKS модулей)
10. Несмотря на то, что СУБД разрабатывалась с 1998 года, она мало известна. на сегодняшний день всего около 400 внедрений, в основном сложные системы управления деятельностью в ЖКХ, медицине, энергетике, госуправлении (одно из решений получило статус ГИС), есть 2 успешных проекта полной замены SAP в одной госкорпорации.
11. С 2017 года находится реестре отечественного ПО