Автоматизация формирования отчётов, анализ и работа с базами данных. Техническое задание есть. Вы описали идеальную архитектуру для сбора конфиденциальных или индивидуальных данных, где каждый участник работает только со своим файлом и не видит других. Это реализуется с помощью Google Forms и Google Apps Script (скриптов). Вот как это работает: --- Общая схема работы 1. Пользователь заполняет общую Google Форму. 2. Скрипт автоматически создает для него персональную Google Таблицу. 3. Скрипт записывает ответы пользователя и ссылку на его персональную таблицу в вашу главную таблицу. 4. Скрипт отправляет пользователю письмо со ссылкой на его личную таблицу. В итоге: · Вы в главной таблице видите все данные и все ссылки на личные файлы. · Каждый пользователь имеет доступ только к своей личной таблице и не видит ни главную таблицу, ни таблицы других людей. --- Пошаговая инструкция по реализации Это более сложный скрипт, но он решает именно вашу задачу. Шаг 1: Подготовка файлов 1. Создайте Главную таблицу (Master Sheet). · Создайте новую Google Таблицу. Это будет ваша база данных. · Создайте заголовки для столбцов, например: Timestamp, Email, Link to Personal Sheet. · Запишите ее ID из URL (длинная строка между /d/ и /edit). 2. Создайте Шаблон личной таблицы (Template Sheet). · Создайте новую Google Таблицу, оформите ее: сделайте заголовки, формулы, инструкции — все, что должен видеть пользователь. · Важно: Не заполняйте ее данными пользователей. Это просто шаблон. · Запишите ее ID. 3. Создайте Google Форму. · Создайте форму, которая будет собирать данные для доступа (как минимум, email). · В настройках формы (шестеренка) включите сбор email-адресов. · Привяжите к форме скрипт: в форме нажмите меню (три точки) -> Редактор скриптов. Шаг 2: Написание скрипта Вставьте этот код в редакторе скриптов, связанном с вашей Формой. Вам нужно будет заменить значения в `CONFIG` на свои. ```javascript // КОНФИГУРАЦИЯ - ЗАМЕНИТЕ ЭТИ ЗНАЧЕНИЯ НА СВОИ const CONFIG = { // ID главной таблицы (из URL) MASTER_SHEET_ID: 'Ваш_ID_Главной_Таблицы', // Имя листа внутри главной таблицы, куда писать данные (обычно "Лист1") MASTER_SHEET_NAME: 'Лист1', // ID таблицы-шаблона (из URL) TEMPLATE_SHEET_ID: 'Ваш_ID_Таблицы_Шаблона', // Папка на Google Диске, куда складывать личные таблицы (необязательно). Оставьте пустым, чтобы файлы создавались в корне. TARGET_FOLDER_ID: '' }; function onFormSubmit(e) { // Получаем ответ из формы var formResponse = e.response; var itemResponses = formResponse.getItemResponses(); var respondentEmail = formResponse.getRespondentEmail(); // Получаем email из настроек формы // Если в форме были другие вопросы, вы можете получить их ответы здесь // var answer1 = itemResponses[0].getResponse(); // 1. СОЗДАЕМ КОПИЮ ШАБЛОНА ДЛЯ ПОЛЬЗОВАТЕЛЯ var personalSheet = createPersonalSheet(respondentEmail); // 2. ЗАПИСЫВАЕМ ДАННЫЕ В ГЛАВНУЮ ТАБЛИЦУ writeToMasterSheet(formResponse, respondentEmail, personalSheet.getUrl()); // 3. ОТПРАВЛЯЕМ ПРИГЛАШЕНИЕ ПОЛЬЗОВАТЕЛЮ НА ЕГО ТАБЛИЦУ sendEmailWithLink(respondentEmail, personalSheet.getUrl()); } function createPersonalSheet(userEmail) { // Открываем шаблон var template = DriveApp.getFileById(CONFIG.TEMPLATE_SHEET_ID); // Создаем имя для новой таблицы var newFileName = 'Моя персональная таблица для ' + userEmail; // Создаем копию шаблона var personalSheetFile = template.makeCopy(newFileName); // Если указана папка, перемещаем файл в нее if (CONFIG.TARGET_FOLDER_ID) { var targetFolder = DriveApp.getFolderById(CONFIG.TARGET_FOLDER_ID); personalSheetFile.moveTo(targetFolder); } // Открываем копию как Google Таблицу var personalSheet = SpreadsheetApp.openById(personalSheetFile.getId()); // Даем пользователю права на редактирование ЭТОЙ таблицы personalSheet.addEditor(userEmail); // Опционально: удаляем права у всех, кроме владельца и пользователя // var editors = personalSheet.getEditors(); // for (var i = 0; i < editors.length; i++) { // if (editors[i].getEmail() != Session.getActiveUser().getEmail()) { // personalSheet.removeEditor(editors[i]); // } // } return personalSheet; } function writeToMasterSheet(formResponse, userEmail, sheetUrl) { // Открываем главную таблицу и нужный лист var masterSheet = SpreadsheetApp.openById(CONFIG.MASTER_SHEET_ID).getSheetByName(CONFIG.MASTER_SHEET_NAME); // Формируем строку для записи: [Время, Email, Ссылка] var timestamp = formResponse.getTimestamp(); var newRow = [timestamp, userEmail, sheetUrl]; // Добавляем строку в конец таблицы masterSheet.appendRow(newRow); } function sendEmailWithLink(userEmail, sheetUrl) { var subject = 'Доступ к вашей персональной таблице'; var body = 'Здравствуйте! Ваша персональная таблица готова. ' + 'Перейдите по ссылке, чтобы начать работу: ' + sheetUrl; MailApp.sendEmail(userEmail, subject, body); } ``` Шаг 3: Настройка триггера Как и в первом примере, вы должны настроить триггер для функции onFormSubmit, чтобы она запускалась При отправке формы. --- Что получится в итоге? Действие пользователя Результат 1. Пользователь заполняет форму и указывает email. 2. Скрипт создает копию шаблона, дает права на нее пользователю, записывает данные в вашу главную таблицу и шлет email. 3. Пользователь получает письмо со ссылкой. 4. Он переходит по ссылке и видит только свою личную таблицу. Он даже не подозревает о существовании главной таблицы и таблиц других участников. 5. Вы открываете свою Главную таблицу. 6. Вы видите список всех участников, их email и прямые ссылки на их личные таблицы. У вас есть полный контроль и обзор над всем процессом. Это мощная, профессиональная и очень надежная схема для управления данными множества пользователей, полностью соответствующая вашим требованиям.
Разработка приложений для ПК. Разработка с нуля. Добрый вечер Подзадача 1.1: Написать скрипт-обертку, который запускает Panaroo и затем фильтрует его результаты. Вход: 5 обновленных GFF-файлов. Что должен делать скрипт: 1. Запустить Panaroo с указанными параметрами (например, panaroo -i ./results/reannotated_gffs/*.gff -o ./results/panaroo_output --clean-mode strict -t 6 --aligner mafft). 2. После завершения работы Panaroo, прочитать его выходной файл gene_presence_absence.csv. 3. Отфильтровать этот файл по двум критериям: Консервативность: "No. isolates" ≥ 3 (или 4, этот параметр должен быть настраиваемым). Гипотетичность: "Annotation" содержит ключевые слова "hypothetical protein", "unknown function", "uncharacterized protein". Выход: Один текстовый файл со списком ID ортогрупп, которые являются КГО, и, возможно, CSV-файл с отфильтрованной таблицей из Panaroo • Подзадача 1.2: Написать Python-скрипт, который для белков из списка КГО автоматизирует поиск известных белковых доменов. • Вход: Список ID ортогрупп КГО. Файлы с аминокислотными последовательностями (.faa). • Что должен делать скрипт: 1. Прочитать список КГО. 2. Для каждой КГО извлечь последовательности всех белков, входящих в нее. 3. Для каждой белковой последовательности запустить InterProScan (предпочтительно) или hmmscan(из пакета HMMER) против базы Pfam. 4. Собрать и спарсить результаты. Вывод должен быть очищен и представлен в удобном табличном формате. • Выход: Один или несколько TSV-файлов, где для каждого белка из КГО указаны: ID белка. ID ортогруппы (КГО). Найденные домены (например, ID из Pfam/InterPro). Описание домена. Координаты домена на белке. Статистическая значимость (E-value). • Подзадача 1.3: Написать Python-скрипт, который автоматизирует предсказание 3D-структур для белков из КГО и поиск их структурных аналогов. • Вход: Список ID ортогрупп КГО. Файлы с аминокислотными последовательностями (.faa). • Что должен делать скрипт: 1. Для каждой КГО извлечь последовательности белков. 2. Для каждой уникальной последовательности (или для репрезентативной последовательности каждой КГО) запустить ColabFold (через API или локально) или локальный AlphaFold2 для предсказания 3D-структуры. 3. После получения PDB-файлов со структурами, для каждой структуры запустить Foldseek для поиска по базам PDB и/или AlphaFold DB. 4. Спарсить результаты Foldseek, сохранив информацию о лучших структурных аналогах. • Выход: Папка со сгенерированными PDB-файлами (.pdb) и файлами с оценкой качества (pLDDT). TSV-файл с результатами поиска структурных аналогов, содержащий колонки: ID белка. ID ортогруппы (КГО). Лучший структурный аналог (PDB ID). Описание/функция аналога. Метрики сходства (TM-score, E-value). • Подзадача 1.4: Написать Python-скрипт, который для каждого гена из КГО анализирует его генное окружение. Вход: Список ID ортогрупп КГО и генов, входящих в них (можно получить из вывода Panaroo, например, из gene_data.csv). 5 обновленных GFF-файлов. Что должен делать скрипт: 1. Для каждого гена, входящего в КГО, определить, в каком из 5 фаговых геномов он находится. 2. Открыть соответствующий GFF-файл. 3. Найти этот ген и извлечь информацию о его соседях (например, 5 генов "вверх" по координатам и 5 генов "вниз"). 4. Для каждого соседа сохранить его locus_tag, product (аннотацию) и направление транскрипции (strand). 5. Собрать эту информацию для всех генов из одной КГО. Выход: Текстовый отчет или TSV-файл, где для каждой КГО будет представлен анализ ее геномного окружения во всех фагах, где она присутствует. Например: ID ортогруппы (КГО). ID фага. Соседи "вверх" (их аннотации). Ген из КГО. Соседи "вниз" (их аннотации). (Повторяется для каждого фага, где есть эта КГО).
Нужно разработать ИИ агентов. ТЗ приложил ниже. Рассматриваем найм как для полного решения задачи так и для ее части. Если у вас есть опыт разработки с использованием нейросетей в том числе (ChatGPT и другие), то мы готовы рассмотреть сотрудничество. Техническое описание логики взаимодействия (в файле есть кртинки со схемой работы) 1. AI Lead Qualificator (Квалификатор Лидов) Цель: Автоматизировать обработку, квалификацию и маршрутизацию огромного потока входящих лидов из различных каналов (приложения, веб-сайт), снизить нагрузку на отдел продаж, отфильтровывая нецелевые обращения, и предоставлять аналитику по входящему трафику. Логика взаимодействия 1. Получение лида: Лид поступает из одного из ваших источников (приложение, веб-сайт) и сразу направляется в наш AI-модуль. 2. Обогащение и дедупликация: AI-модуль, получив первичные данные, обращается по API к вашему центральному хранилищу данных (Data Warehouse) и CDP. Цель: Проверить, существует ли уже такой клиент, сопоставить данные и предотвратить создание дубликатов. 3. Квалификация и сегментация: На основе полученных и обогащенных данных AI классифицирует лид: B2B-клиент, B2C-клиент, запрос в техподдержку, гость и т.д. 4. Маршрутизация: - Неквалифицированные для продаж лиды: Если это B2C-клиент, которому нужна простая инструкция, AI отправляет ему готовый ответ и не создает карточку в Pipedrive. Данные о контакте просто логируются в хранилище/CDP. - Квалифицированные лиды: Если это B2B-клиент, AI передает данные в Pipedrive, создавая карточку сделки. 5. Приоритизация в Pipedrive: При создании карточки AI автоматически присваивает ей уровень приоритета (например, через цветные лейблы), основываясь на заданных правилах. 6. AI-аналитик паттернов (доп. опция): Отдельный AI-агент может раз в день анализировать данные в хранилище, находить скрытые паттерны (например, "резкий рост гостевых заказов") и уведомлять вас с предложением скорректировать логику. ----- 2. AI Sales Assistant (Ассистент Продаж) Цель: Повысить эффективность работы отдела продаж за счет анализа звонков, контроля соблюдения скриптов, автоматического заполнения CRM и предоставления рекомендаций. Логика взаимодействия 1. Запись звонка: Менеджер совершает звонок через вашу телефонию. Запись звонка автоматически сохраняется. 2. Передача в AI-модуль: Запись звонка по API передается в AI-модуль "Ассистент". 3. Анализ звонка (пост-фактум): - Транскрибация: AI преобразует аудио в текст с разметкой по спикерам. - Суммаризация: Система выделяет ключевые моменты: профиль клиента, потребности, договоренности, следующие шаги. - Анализ по скрипту: AI сверяет диалог с вашим "идеальным скриптом" и подсвечивает упущенные моменты. 4. Интеграция с CRM (Pipedrive): - В карточку сделки автоматически добавляются: транскрипция, резюме и отчет по скрипту. - Возможно автозаполнение полей в карточке на основе данных из звонка. 5. Интеграция с календарем: Если была достигнута договоренность о встрече, AI может автоматически создать событие в календаре менеджера. 6. Анализ совокупных данных: Вы сможете делать семантические запросы к базе всех звонков (например, "Что говорят клиенты про скидку на Дивали?"). Для этого будет использоваться векторная база данных.
Мы создаём современную облачную платформу, предназначенную для обучения и запуска моделей машинного обучения и продуктов с применением искусственного интеллекта. Платформа обеспечивает централизованный доступ к высокопроизводительным вычислительным ресурсам (CPU, GPU), системе хранения данных, средствам оркестрации контейнеров и виртуальных машин, а также инструментам поддержки полного жизненного цикла ML-моделей. Обязанности Развёртывание, настройка и сопровождение подсистем управления виртуализацией (zVirt, Kubernetes), контейнеризации и оркестрации. Администрирование инфраструктуры IaaS/PaaS: управление виртуальными машинами, контейнерами, хранилищами, сетями. Обеспечение интеграции с корпоративными системами безопасности и каталогами пользователей (LDAP, Active Directory, Keycloak). Управление системой контроля доступа (RBAC/ABAC), настройка политик безопасности и лимитов потребления ресурсов. Конфигурация и мониторинг среды разработки ML (JupyterLab, VSCode) и средств управления жизненным циклом ML-моделей (регистрация, хранение, версия). Поддержка и обслуживание систем мониторинга, логирования, резервного копирования и восстановления. Организация и проведение тестирования, диагностика и устранение неисправностей инфраструктуры. Взаимодействие с командами разработки и пусконаладочные работы. Сопровождение документации и участие в подготовке внутрикорпоративных инструктажей. Требования Высшее техническое образование (информационные технологии, вычислительная техника, прикладная математика и пр.). Опыт работы с Linux-серверами (желательно российские дистрибутивы Astra Linux, РЕД ОС, AlmaLinux). Практический опыт с виртуализацией (KVM, zVirt, oVirt, OpenStack) и контейнеризацией (Docker, Kubernetes). Знание принципов и практик управления доступом (RBAC, ABAC), опыт интеграции с LDAP/AD и системами SSO. Навыки работы с ML-инструментами и средами разработки (Python, ML-фреймворки Keras, PyTorch, TensorFlow, Jupyter). Опыт работы с системами мониторинга и логирования (Prometheus, Grafana, Loki, ELK). Знания сетевых технологий (VLAN, маршрутизация, IP-адресация), баз данных (PostgreSQL, MySQL, Redis). Понимание принципов безопасности информационных систем и мер защиты данных. Навыки работы с API, автоматизацией (Ansible, CI/CD инструменты), скриптинг (bash, Python). Умение работать в команде, коммуникабельность, инициативность. Будет преимуществом Опыт работы с высоконагруженными системами и распределёнными вычислениями. Сертификация в области виртуализации, Kubernetes и/или безопасности. Опыт поддержки облачных сред в закрытом контуре (без подключения к Интернету). Знание методологий DevOps и MLOps. Условия Участие в уникальном проекте федерального уровня. Современный оборудованный офис и возможность гибкого режима работы. Конкурентная заработная плата и социальные гарантии. Профессиональное обучение и сертификация. Дружелюбная команда и поддержка со стороны руководства.
Разработать дизайн уровней. Игра: для мобильных устройств. Игра: многопользовательская. Жанр: Разработка интерактивного генеалогического древа в стиле космической галактики с функционалом масштабирования и вращения. Графика: 3D. Пожелания и особенности: Цель проекта: Создать визуализирующее родственные связи в виде 3D-созвездия, где каждый человек представлен как звезда, а связи между ними — линии созвездий. Пользователь должен иметь возможность свободно управлять viewport: вращать, зумировать и выбирать элементы для просмотра детальной информации - для внедрения уже в готовое приложение Ключевые требования к функционалу: · 3D-визуализация: · Реализация сцены в 3D-пространстве с возможностью орбитального управления камерой (вращение, зум, панорамирование). · Отображение связей между узлами (линии с настраиваемой толщиной, цветом, свечением). · Интерактивность: · Выбор узла (звезды) с подсветкой его связей и отображением всплывающего окна (UI) с данными. · Плавные анимации при переходе между состояниями (приближение к узлу, перестроение связей). · Data handling: · Загрузка данных о структуре древа из JSON-файла. · Поддержка динамического обновления данных (добавление/удаление узлов и связей). · Производительность: · Оптимизация рендеринга для поддержки сцен с >500 узлов и связей без просадок FPS. Входные данные: · Структура древа в формате JSON (пример ниже). · Графические ассеты (текстуры звезд, фона, UI-элементы) в форматах PNG/SVG. Пример структуры JSON: ```json { "nodes": [ { "id": 1, "name": "Иван Петров", "description": "Дата рождения: 1950", "group": "root", "x": 0, "y": 0, "z": 0, "size": 2.0 }, ... ], "links": [ { "source": 1, "target": 2, "value": 1.0 }, ... ] } ``` 5. Технический стек (ожидаемый): · Для веба: Three.js / Babylon.js + React/Vue. · Для мобильных приложений: Unity / Unreal Engine. · Бэкенд: Node.js/Express (если требуется серверная часть для хранения данных). Этапы работы: 1. Прототипирование: отрисовка базовой 3D-сцены с узлами и связями. 2. Реализация управления камерой (зум, вращение). 3. Добавление интерактивности (выбор узлов, UI). 4. Интеграция с данными (загрузка JSON). 5. Оптимизация и тестирование. Критерии приемки: · Корректное отображение всех узлов и связей из предоставленного JSON. · Плавная работа камеры (60 FPS на средних устройствах). · Адаптивность под разные разрешения экранов. Что предоставляем: · JSON с данными древа. · Дизайн-макеты (UI, иконки, текстуры). · Референсы (Starwalk, аналоги). Пришлите ссылку на ваше портфолио, особенно на работы, похожие по стилю или сложности. Кратко опишите, как бы вы подошли к этой задаче. Далее можно будет обсудить бюджет.
Разработать: дизайн уровней, дизайн локаций. Игра: массовая онлайн. Жанр: Разработка интерактивного генеалогического древа в стиле космической галактики с функционалом масштабирования и вращения. Платформа: Unity. Графика: 3D. Прототип: Цель проекта: Создать визуализирующее родственные связи в виде 3D-созвездия, где каждый человек представлен как звезда, а связи между ними — линии созвездий. Пользователь должен иметь возможность свободно управлять viewport: вращать, зумировать и выбирать элементы для просмотра детальной информации - для внедрения уже в готовое приложение Ключевые требования к функционалу: · 3D-визуализация: · Реализация сцены в 3D-пространстве с возможностью орбитального управления камерой (вращение, зум, панорамирование). · Отображение связей между узлами (линии с настраиваемой толщиной, цветом, свечением). · Интерактивность: · Выбор узла (звезды) с подсветкой его связей и отображением всплывающего окна (UI) с данными. · Плавные анимации при переходе между состояниями (приближение к узлу, перестроение связей). · Data handling: · Загрузка данных о структуре древа из JSON-файла. · Поддержка динамического обновления данных (добавление/удаление узлов и связей). · Производительность: · Оптимизация рендеринга для поддержки сцен с >500 узлов и связей без просадок FPS. Входные данные: · Структура древа в формате JSON (пример ниже). · Графические ассеты (текстуры звезд, фона, UI-элементы) в форматах PNG/SVG. Пример структуры JSON: ```json { "nodes": [ { "id": 1, "name": "Иван Петров", "description": "Дата рождения: 1950", "group": "root", "x": 0, "y": 0, "z": 0, "size": 2.0 }, ... ], "links": [ { "source": 1, "target": 2, "value": 1.0 }, ... ] } ``` 5. Технический стек (ожидаемый): · Для веба: Three.js / Babylon.js + React/Vue. · Для мобильных приложений: Unity / Unreal Engine. · Бэкенд: Node.js/Express (если требуется серверная часть для хранения данных). Этапы работы: 1. Прототипирование: отрисовка базовой 3D-сцены с узлами и связями. 2. Реализация управления камерой (зум, вращение). 3. Добавление интерактивности (выбор узлов, UI). 4. Интеграция с данными (загрузка JSON). 5. Оптимизация и тестирование. Критерии приемки: · Корректное отображение всех узлов и связей из предоставленного JSON. · Плавная работа камеры (60 FPS на средних устройствах). · Адаптивность под разные разрешения экранов. Что предоставляем: · JSON с данными древа. · Дизайн-макеты (UI, иконки, текстуры). · Референсы (Starwalk, аналоги). Пришлите ссылку на ваше портфолио, особенно на работы, похожие по стилю или сложности. Кратко опишите, как бы вы подошли к этой задаче. Далее можно будет обсудить бюджет.
Автоматизация расчётов, анализ и работа с базами данных, автоматизация формирования отчётов, автоматизация составления документов. Расчёты: логистические. Техническое задание есть. Пожелания и особенности: Есть файл в exele с двумя листами «Чеки» и «Тиньк». На листе «Чеки» около 30 тысяч строчек с финансовыми операциями, а на листе «Тиньк» около 5 тысяч. Нужно найти 2 операции на листе «Чеки» которые в сумме будут давать операцию в листе «Тиньк». (Для простоты обозначу их как операция1 + операция2 = операция3) Операцией3, то есть суммой могут быть только те операции у которых столбы I, J, K пустые. Фд у операции1 и операции2 не должно повторяться ни с тем которые уже есть в столбце I на листе «Тиньк», ни с новыми записанными, а так же операции из листа «Чеки» у которых тип «возврат прихода» слагаемыми суммы быть не могут. Операция1 с листа «Чеки» должна быть в течении часа с операцией3 с листа «Тиньк», её нужно подписать как «Аванс» в столбце L, так же операци1 нужно записать номер ФД в столбец I, время чека в столбец J, сумму чека в столбец K. Операция2 должна быть в течении недели с операцией3 и её нужно подписать как «Доплата» в столбце P, так же операции2 нужно записать номер ФД в столбец M, время чека в столбец N, сумму чека в столбец O. Дата операции на листе «Тиньк» указана в столбеце А, сумма в столбце D, данные начинаются с 3 строчки, удалять данные уже занесенные не нужно; на листе «Чеки» номер ФД указан в столбце F, дата чека в столбце G, время чека в столбце H, тип операции (приход или возврат прихода) в столбце I, сумма чека в столбце J данные начинаются с 5 строчки. На листе «Чеки» в столбце H указано время и не нужная дата в формате ДД.ММ.ГГГГ ЧЧ:ММ:СС, тут нужно учитывать только время, не дату; дата которую нужно учитывать указана в столбце G; на листе «Тиньк» и дата и время укзаны в столбце А в формате ДД.ММ.ГГГГ ЧЧ:ММ:СС. В конце измененный файл нужно сохранить. Кратко: Найти на одном листе два чека, сумма которых равна числу на другом листе. Операция1 в пределах ±1 часа, I/J/K/L — ФД/время/сумма/«Аванс»; Операция2 в пределах недели, M/N/O/P — ФД/время/сумма/«Доплата». Смотрим только операции из «Тиньк», где I/J/K пусты. "Возврат прихода" исключаем. ФД не должны повторяться Дедлайн до завтра.
Формат занятости: Проектная работа, срок — до 20 рабочих дней, с возможностью продления сотрудничества О проекте Мы реализуем проект по разработке, тестированию и оптимизации комплекса технологий искусственного интеллекта и методов математического моделирования. Цель — автоматизация процессов градостроительного планирования на разных этапах жизненного цикла проектов, интеграция ИИ в существующие системы и разработка методологий для их применения органами власти и профильными организациями. Обязанности Разработка и оптимизация не менее трёх комплексов технологий на базе методов искусственного интеллекта, машинного обучения и математического моделирования. Интеграция современных методов расчётов, анализа данных и генеративного дизайна. Создание и тестирование лабораторных образцов моделей с уровнем готовности УГТ 5. Подготовка плана разработки, тестирования и оптимизации алгоритмов, включая полную документацию. Адаптация решений под инфраструктуру Заказчика, включая интеграцию с корпоративными системами через API и контейнеризацию (Docker). Подготовка отчётной документации по итогам работ и рекомендации по внедрению. Требования Высшее образование в области математики, компьютерных наук, урбанистики, информационных технологий или смежных дисциплин. Опыт работы с технологиями глубокого обучения (CNN, RNN, GNN, Transformer), градиентного бустинга и методов оптимизации. Знание методов обработки естественного языка (NLP) для анализа нормативных данных. Опыт контейнеризации (Docker), интеграции API, работы с Unix-системами. Опыт написания технической документации и ведения проекта по ГОСТ. Будет преимуществом: опыт работы с системами автоматизированного проектирования и знание градостроительных нормативов. Мы предлагаем Участие в высокотехнологичном проекте по внедрению ИИ в градостроительное планирование. Гибкий график работы, частично удалённый формат. Конкурентное вознаграждение. Возможность продления сотрудничества на новых этапах проекта.
Почему стоит искать работу для фриласнеров по профилю программисты в России у нас?
🔸 Более 3 предложений о работе за сегодня в тематике программисты
🔸 Работа и подработка на бирже фриланса от прямых заказчиков, которым нужна помощь специалистов по профилю программисты уже сегодня!
🔸 Свежих заказов на программисты в России для фрилансеров на апрель 2026 года — 3602 шт.
Как найти удалённую работу для фриланс-специалистов по профилю программисты в России?
Вы специалист по программисты и ищете проекты и заказы на удалёнке в России? Нам всегда есть что вам предложить. Ежедневно мы публикуем новые проекты и заказы по вашей специальности. Найдите интересную работу уже сегодня
Сколько проектов для IT-специалистов по профилю программисты в России?
На апрель 2026 года опубликовано 3602 предложений удалённой работы от прямых заказчиков для исполнителей по специализации программисты
Сколько можно заработать выполняя проекты по программисты?
Специалисты по профилю программисты зарабатывают от 0.00 рублей с заказа. Хотите больше? Выполняйте как можно больше заказов и зарабатывайте сколько пожелаете