Вы решаете внедрить искусственный интеллект в свой бизнес — возможно, для автоматизации ответов на вопросы клиентов, генерации контента или анализа отзывов. Но как убедиться, что человек, которого вы нанимаете как LLM-специалиста, действительно разбирается в теме? Не каждый, кто умеет задавать вопросы ChatGPT, способен построить надежную систему на основе больших языковых моделей. Многие владельцы бизнеса и маркетологи боятся нанять некомпетентного специалиста — и в результате тратят время, деньги и репутацию на неэффективные решения. Как не попасть в эту ловушку? В этой статье вы найдете подробный, проверенный чек-лист для оценки технической компетентности LLM-специалиста. Вы узнаете, какие вопросы задавать на собеседовании, что проверять в портфолио, как оценить понимание архитектуры трансформеров и как отличить настоящего эксперта от того, кто просто умеет копировать ответы из интернета.

Почему LLM-специалист — это не просто «человек, который пользуется ChatGPT»

Сегодня многие считают, что если человек умеет писать хорошие промпты и получает от ИИ качественные тексты — значит, он LLM-специалист. Это опасное заблуждение. Пользоваться инструментом — это одно. Уметь его настраивать, оптимизировать, интегрировать в бизнес-процессы и решать реальные проблемы — совсем другое. Представьте, что вы нанимаете водителя, но проверяете только его умение открывать двери машины. Вы не оцените, как он ведет на трассе, как реагирует на аварийные ситуации или знает ли он правила дорожного движения. То же самое и с LLM-специалистами.

LLM — это Large Language Model, или большая языковая модель. Это сложная система, способная генерировать текст, понимать контекст, отвечать на вопросы и даже писать код. Но за этим «магическим» результатом стоят десятки тысяч часов вычислений, миллиарды параметров, тонкие настройки и глубокое понимание того, как модели обрабатывают информацию. Если специалист не знает, что такое токенизация, почему важна температура генерации или как работает механизм внимания (attention mechanism), он не сможет адекватно оценить, почему модель дает неверный ответ, или как улучшить её производительность.

Для владельца бизнеса это значит: если вы нанимаете LLM-специалиста, чтобы автоматизировать поддержку клиентов — вы рискуете получить бота, который в 30% случаев дает неправильные ответы, в 20% — упоминает несуществующие продукты, а в 15% — начинает писать что-то неуместное. И вы об этом узнаете только тогда, когда клиенты начнут жаловаться. А если вы используете ИИ для анализа отзывов — модель может пропустить критические замечания или, наоборот, придумать «проблемы», которых нет. Это не гипотетический риск — это реальные случаи, с которыми сталкивались компании, внедрявшие ИИ без должной экспертизы.

Ваша цель — не просто «взять кого-нибудь с опытом в ИИ», а найти человека, который:

  • Понимает, как работают языковые модели на уровне архитектуры
  • Может выбирать подходящую модель под задачу (а не использовать одну и ту же для всего)
  • Знает, как оценивать качество ответов — не только по «звучит хорошо», а по метрикам
  • Умеет настраивать промпты, чтобы минимизировать ошибки
  • Ориентируется в инструментах для развертывания и мониторинга
  • Понимает, где ИИ полезен, а где лучше оставить человека

Без этого вы рискуете превратить ИИ из конкурентного преимущества в источник утечек, ошибок и разочарований. Поэтому чек-лист, который мы составим далее, — это не просто список вопросов. Это ваш инструмент для защиты бизнеса от технических рисков.

Что проверять у LLM-специалиста: ключевые блоки чек-листа

Чтобы не пропустить важные аспекты, разобьем оценку на пять ключевых блоков. Каждый из них — это отдельный угол зрения, который должен быть покрыт на собеседовании. Не стоит полагаться только на резюме или портфолио. Даже самый красивый CV может скрывать поверхностные знания. Ваша задача — выявить глубину понимания, а не просто совпадение ключевых слов.

Блок 1: Понимание базовых принципов работы LLM

Первый и самый фундаментальный блок — это понимание того, как вообще работают языковые модели. Если кандидат не может объяснить, что такое «предсказание следующего токена», или думает, что ИИ «помнит» все, что ему говорят — это тревожный знак. Проверить эту базу можно простыми, но точными вопросами:

  • Что такое токенизация и зачем она нужна?
  • Как модель «понимает» контекст, если она не имеет памяти в обычном смысле?
  • Чем отличается эмбеддинг от токена?
  • Как работает механизм внимания (attention)?
  • Почему модели не «знают» факты, а только предсказывают слова?

Идеальный ответ на вопрос про токенизацию: «Это процесс разбиения текста на более мелкие части — токены. Они могут быть словами, частями слов или даже символами. Например, слово «неделя» может разбиться на «не», «деля». Это позволяет модели работать с редкими словами, не запоминая их целиком. Это критично для языков с богатой морфологией, таких как русский.»

Если кандидат говорит: «Она просто запоминает все, что я говорил», — это красный флаг. Это означает, что он не понимает основы и не сможет настроить систему для долгосрочной работы. ИИ работает на основе вероятностей, а не памяти. Он предсказывает следующий токен на основе статистики, накопленной при обучении. Его «память» — это веса в нейронных сетях, а не файлы на диске.

Практический совет: попросите кандидата объяснить, как работает LLM, так, чтобы понял ваш 14-летний ребенок. Если он не может — это либо плохой коммуникатор, либо слабый специалист. Понимание базовых принципов — основа для всех последующих решений.

Блок 2: Опыт с архитектурами и моделями

Не все LLM одинаковы. GPT-4, Claude 3, Llama 3, Mistral — у каждой модели свои сильные и слабые стороны. Важно понимать, когда использовать что.

Спросите:

  • Какие модели вы использовали в реальных проектах?
  • Чем GPT-4 отличается от Llama 3 по качеству и стоимости?
  • Что такое энкодер-декодер, а что — декодер только?
  • Знаете ли вы про мультимодальные модели (например, GPT-4V)?
  • Какие модели лучше подходят для русского языка?

Важно, чтобы кандидат не просто называл названия моделей — он должен уметь сравнивать их. Например: «Llama 3 лучше подходит для локального развертывания, потому что его можно запустить на собственном сервере без ограничений по объему данных. GPT-4 дает более гладкие и креативные ответы, но требует API-доступа и дороже. Для задач анализа отзывов клиентов я бы выбрал Mistral — он хорошо справляется с короткими текстами и дешевле в использовании».

Также проверьте, знает ли он про микросервисные архитектуры. Например, он должен понимать разницу между использованием модели напрямую и через RAG (Retrieval-Augmented Generation). В первом случае модель генерирует ответ только на основе своих знаний, обученных до определенной даты. Во втором — она получает дополнительный контекст из базы знаний компании. Это критично для бизнеса: если вы используете ИИ для ответов на вопросы по вашему продукту, RAG позволяет избежать устаревших или некорректных сведений.

Спросите: «Как вы обеспечиваете актуальность информации, если модель обучена на данных до 2023 года?» — хороший специалист сразу ответит: «Использую RAG с индексацией базы знаний и периодической перезагрузкой векторных хранилищ».

Блок 3: Навыки работы с промптами и системной настройкой

Промпты — это не просто «вопросы», которые вы задаете ИИ. Это сложные инструкции, требующие структуры, контекста и точности. Неверно составленный промпт — это как дать водителю карту без названий улиц и ожидать, что он доедет до аэропорта.

Проверьте его навыки с помощью практических задач:

  1. Попросите написать промпт для генерации ответа клиенту на вопрос: «Почему у меня не работает оплата?»
  2. Затем — попросите улучшить его, чтобы минимизировать риск «фантазирования» (галлюцинаций).
  3. Спросите: «Как вы проверяете, что ответ соответствует реальности?»

Хороший специалист предложит:

  • Использовать структуру: «Ты — эксперт по поддержке. Ответь кратко, вежливо и только на основе предоставленных данных»
  • Добавить примеры корректных ответов (few-shot learning)
  • Включить ограничение: «Если ответа нет в документах — скажи, что не знаешь»
  • Сделать проверку через ключевые слова или модель-оценщик (например, GPT-4 для оценки точности)

Также важно, чтобы он понимал:

  • Что такое temperature (температура) и top-p — как они влияют на креативность и предсказуемость
  • Как работает токен-лимит — почему длинные ответы иногда обрезаются
  • Какие метаданные нужно передавать модели (язык, формат, целевая аудитория)

Пример: если вы используете ИИ для генерации email-рассылок, температура в 0.7 создаст слишком креативный и непредсказуемый текст, а в 0.2 — будет сухим и шаблонным. Оптимальный баланс — 0.4–0.5 для корпоративной коммуникации.

Блок 4: Работа с инструментами и фреймворками

LLM-специалист не должен быть только «человеком, который пишет в ChatGPT». Он должен уметь работать с инструментами разработки. Спросите:

  • Какие инструменты вы используете для тестирования промптов?
  • Знакомы ли вы с LangChain, LlamaIndex или Haystack?
  • Какие библиотеки применяете для работы с векторными базами (вроде FAISS, Pinecone)?
  • Использовали ли вы LLM-ориентированные фреймворки для тестирования и оценки (например, LLM-factory или TruEra)?
  • Знаете ли вы про OpenAI’s API, Hugging Face или Ollama?

Вот как выглядит реальный кейс. Компания хотела автоматизировать анализ отзывов с Яндекс.Маркета. Кандидат не просто написал скрипт, а:

  1. Использовал Hugging Face для загрузки русскоязычной модели (например, DeepSeek-R1)
  2. Применил LlamaIndex для индексации отзывов
  3. Создал пайплайн с LangChain: извлечение → векторизация → поиск похожих отзывов → генерация резюме
  4. Подключил метрики оценки (ROUGE, BLEU) для автоматической проверки качества
  5. Настроил оповещения, если модель начинает давать неоднозначные ответы

Если кандидат говорит: «Я пользуюсь только ChatGPT и Google», — это недостаточно. Даже для простых задач, таких как автоматизация отчетов или генерация заголовков, нужна структурированная система. Без инструментов вы не сможете масштабировать, контролировать качество или отслеживать ошибки.

Блок 5: Практические навыки и портфолио

Портфолио — это ваша последняя линия обороны. Не верьте красивым слайдам с надписью «Искусственный интеллект для бизнеса». Ищите конкретику. Задавайте вопросы:

  • Можете ли вы показать реальный проект, в котором вы участвовали?
  • Какие метрики вы использовали для оценки успеха?
  • Сколько времени заняла настройка и сколько ошибок было до стабильной работы?
  • Какие проблемы вы решали, и какие последствия были бы без вашей работы?

Хорошее портфолио включает:

  • Задача: «Автоматизация ответов на 80% запросов в чат-боте»
  • Решение: «Использовал RAG с базой знаний из FAQ и документации, настроил модель Mistral 7B с температурой 0.3»
  • Результат: «Сократили время ответа с 12 часов до 8 минут, уменьшили нагрузку на поддержку на 65%, сохранили точность ответов выше 92%»
  • Инструменты: LangChain, FAISS, Hugging Face, Python

Обратите внимание: хороший специалист не говорит «сделал чат-бота» — он объясняет, как он тестировал его на критических сценариях. Например: «Проверял, как модель реагирует на агрессивные отзывы — чтобы не усугублять конфликт. Тестировал на синонимах: «не работает», «сломался», «глючит» — и убедился, что понимает все варианты». Это уровень эксперта.

Также спросите: «Если бы вы внедряли ИИ в мой бизнес — что бы вы предложили сделать первым?»

Идеальный ответ: «Сначала я проанализирую, какие задачи занимают больше всего времени у вашей команды. Возможно, это ответы на частые вопросы по продукту — их можно автоматизировать через RAG. Потом протестирую на выборке из 100 запросов, оценю точность и скорость. Только после этого запущу в продакшен с мониторингом».

Если кандидат говорит: «Я сделаю чат-бота на базе GPT» — это поверхностный подход. Он не думает о бизнес-целях, а только о технологиях.

Как отличить junior от senior LLM-специалиста

Не все должности одинаковы. Junior — это человек, который умеет писать промпты и запускать простые скрипты. Senior — это тот, кто строит системы, предсказывает риски и обучает команду. Вот как их отличить:

Критерий Jr LLM-специалист Senior LLM-специалист
Уровень понимания архитектуры Знает, что есть «нейросеть», но не может объяснить внимательный механизм Объясняет, как работает multi-head attention и почему он важен для контекста
Работа с данными Использует готовые данные, не думает о качестве Чистит и аннотирует данные, понимает смещения в данных (bias)
Настройка моделей Меняет температуру и ждет, что станет лучше Проводит A/B тесты промптов, использует метрики для оценки
Инструменты Пользуется только ChatGPT и Copilot Работает с LangChain, Ollama, Pinecone, проводит деплой на сервере
Коммуникация с бизнесом Говорит «ИИ сделает всё», не говорит про риски Объясняет, где ИИ может ошибиться, и предлагает план B
Масштабирование Один промпт для одной задачи Создает шаблоны, pipeline, документацию и автоматизирует тестирование
Ответственность «Я сделал — теперь пусть кто-то проверяет» Ставит мониторинг, логи и метрики — отвечает за результат

Самый простой способ проверить уровень: попросите senior-специалиста рассказать, как он бы реагировал на сбой. Например: «Чат-бот начал давать странные ответы после обновления». Junior скажет: «Перезагружу» или «Напишу новый промпт». Senior — «Проверю логи, увижу, какие запросы стали некорректными, проверю актуальность базы знаний, протестирую на прошлых данных, запущу A/B тест двух версий промптов и определю, что вызвало деградацию».

Если вы ищете junior — это нормально. Но если вам нужен человек, который возьмет на себя ответственность за ИИ-систему в вашем бизнесе — требуйте senior. Не бойтесь платить больше: один ошибочный ответ от ИИ может стоить десятимиллионного убытка, если он затронет репутацию бренда.

Практические задания для тестового испытания

Теория — это хорошо. Но только практика показывает, насколько человек действительно умеет работать. Предложите кандидату простое тестовое задание — оно должно занимать не более 2–3 часов, но быть достаточно глубоким.

Задание 1: Анализ отзывов

Условие: У вас есть 100 отзывов о продукте. Некоторые — позитивные, некоторые — негативные. Вам нужно автоматизировать анализ.

Задача:

  • Создайте промпт, который будет выделять ключевые проблемы из отзывов
  • Сгруппируйте их по категориям (например: «цена», «качество», «доставка»)
  • Сделайте краткое резюме — не более 10 предложений
  • Опишите, как вы будете проверять точность системы

Что искать в ответе:

  • Есть ли структура? (например: «Промпт содержит инструкцию, примеры и ограничения»)
  • Учитывает ли он русский язык? (напр., «Слово "не" влияет на смысл — нужно учитывать отрицания»)
  • Предлагает ли он метрики? (например: «Я буду сравнивать результаты с ручной разметкой 10 отзывов»)
  • Упоминает ли он RAG или только базовые промпты?

Задание 2: Оптимизация ответа

Условие: Чат-бот отвечает на вопрос: «Как вернуть товар?» — и дает ответ, который содержит устаревшую информацию. Вы хотите это исправить.

Задача:

  • Какие шаги вы предпримете?
  • Что проверите в первую очередь?
  • Как убедитесь, что проблема не повторится?

Правильный ответ:

  • Проверить актуальность базы знаний — возможно, документ обновился, но векторная база не перестроена
  • Проверить промпт — нет ли дублирующих инструкций, которые сбивают модель
  • Добавить механизм обновления векторной базы — например, по расписанию
  • Ввести фильтр: если модель не уверена — предложить связаться с человеком
  • Настроить мониторинг: логировать запросы, где модель дает ответ «я не знаю», и анализировать их

Задание 3: Дизайн системы

Условие: Ваша компания хочет использовать ИИ для генерации рекламных текстов. Вы — единственный специалист. Как вы построите систему?

Что искать:

  • Понимание, что реклама требует точности и соответствия бренд-гайду
  • Способность предложить ограничения: «Не использовать эмодзи», «Тон — официальный»
  • Предложение тестирования: A/B тесты с разными версиями текстов
  • Понимание необходимости ручной проверки для ключевых кампаний

Эти задания не требуют сложных технических навыков — они проверяют системное мышление. Если кандидат справился — вы нашли сильного специалиста.

Что не стоит проверять — и почему

Не все «технические» вопросы полезны. Многие соискатели учатся отвечать на стандартные вопросы, не понимая сути. Вот что стоит избегать:

  • «Какие у вас знания в Python?» — если вы не планируете, чтобы он писал код с нуля, это не критично. Главное — понимание инструментов, а не умение писать функции.
  • «Знаете ли вы TensorFlow?» — большинство LLM-специалистов работают с готовыми API, а не с обучением моделей. Это важно для исследователей, но не для бизнес-применения.
  • «Сколько параметров у GPT-4?» — это факт, а не навык. Никто не запоминает цифры. Важно, знает ли он, что больше параметров = лучше качество, но выше стоимость.
  • «Какой у вас GitHub?» — если нет репозиториев, это не значит, что он плохой. Многие проекты — внутренние или проприетарные.

Вместо этого спрашивайте:

  • «Что вы делали, чтобы улучшить качество ответов?»
  • «Какие ошибки вы допустили в прошлых проектах и что из этого узнали?»
  • «Как вы будете объяснять ИИ-решение вашему маркетологу?»

Эти вопросы выявляют не только техническую компетентность, но и способность думать, учиться и коммуницировать — то, что реально важно в бизнесе.

Как не попасть на фейкового специалиста

Когда ИИ стал модным, появились «специалисты», которые научились говорить на языке технологий, не имея реального опыта. Вот как их распознать:

Признаки фейкового LLM-специалиста:
  • Говорит только про «мощные модели» и «новейшие технологии», но не может назвать ни одного реального кейса
  • Утверждает, что ИИ «решит всё» — без оговорок, рисков или ограничений
  • Не может объяснить, как работает его система — только говорит «это магия»
  • Не интересуется вашими бизнес-целями — говорит только про технологии
  • Называет слишком много моделей, как будто это список покупок
  • Не говорит про метрики, тестирование или мониторинг — только «я сделал»

Если кандидат говорит: «Я использовал GPT-4, Claude и Llama» — это нормально. Если он говорит: «Я использовал GPT-4, Claude, Llama и еще 12 моделей, которые вы не слышали» — это красный флаг. Это попытка запутать вас.

Проверяйте через детали. Спросите: «Какой был ваш самый сложный проект? Что пошло не так, и как вы это исправили?» — если ответ звучит как сказка, без конкретики — это фейк.

Доверяйте тем, кто говорит: «Я сделал ошибку, и вот как я ее исправил». Это признак зрелости. Доверяйте тем, кто говорит: «Это невозможно», — это признак честности. И не доверяйте тем, кто говорит: «Это легко» — это признак поверхностности.

Что делать, если вы не технарь

Если вы — маркетолог или владелец бизнеса, и у вас нет технического бэкграунда — это не проблема. Вы не должны быть экспертом в трансформерах. Но вы должны уметь задавать правильные вопросы и оценивать ответы.

Вот что вы можете сделать:

  1. Привлеките технического консультанта. Найдите человека с опытом в ИИ — на фрилансе или через агентство. Он проведет техническое интервью и даст вам оценку.
  2. Составьте чек-лист. Используйте тот, что мы составили выше — он готов к использованию.
  3. Попросите объяснить всё простыми словами. Если кандидат не может — он либо не знает, либо пытается запутать.
  4. Проверяйте результат, а не резюме. Тестовое задание — ваш лучший инструмент.
  5. Начните с малого. Не запускайте ИИ на главной странице сайта. Начните с автоматизации внутренних задач: ответы на email, генерация отчетов, анализ комментариев.

Технологии не должны быть барьером. Они должны быть инструментом — и ваша задача — научиться им пользоваться, а не становиться их разработчиком.

Заключение: как найти надежного LLM-специалиста

Найти компетентного LLM-специалиста — это не про знание терминов. Это про системное мышление, ответственность и понимание бизнеса. Человек, который может построить надежную систему на основе языковых моделей, не просто «знает про ИИ» — он понимает, как технологии влияют на клиентов, процессы и прибыль.

Ваш чек-лист — это не просто список вопросов. Это инструмент защиты вашего бизнеса от:

  • Ложных обещаний
  • Технических сбоев
  • Утечек информации
  • Потери репутации из-за некачественных ответов

Не торопитесь. Лучше подождать подходящего кандидата, чем нанять того, кто «умеет говорить про ИИ», но не умеет его использовать. Внедрение ИИ — это как установка системы вентиляции: если она сделана неправильно, вы не заметите проблем до тех пор, пока не начнете задыхаться.

Следуйте чек-листу: проверяйте понимание базовых принципов, работу с инструментами, практические навыки и способность решать реальные задачи. Не забывайте — ваша цель не «нанять эксперта по ИИ», а создать надежную, безопасную и эффективную систему. Именно это обеспечит вам конкурентное преимущество в эпоху искусственного интеллекта.

FAQ

Что такое LLM-специалист и чем он отличается от обычного программиста?

LLM-специалист — это человек, который фокусируется на работе с большими языковыми моделями: настройке промптов, интеграции в системы, оценке качества ответов и оптимизации производительности. Он не обязательно пишет код с нуля — его задача — использовать готовые модели так, чтобы они решали конкретные бизнес-задачи. Обычный программист может создать веб-сайт или базу данных, но не умеет оценить, почему модель дает неверный ответ или как улучшить точность генерации. LLM-специалист работает на стыке технологий и бизнеса — он не просто пишет код, он управляет интеллектом.

Стоит ли нанимать LLM-специалиста, если у меня маленький бизнес?

Да — особенно если вы тратите много времени на рутинные задачи: ответы на письма, генерацию контента, анализ отзывов. Даже в малом бизнесе автоматизация этих процессов может сэкономить 10–20 часов в неделю. Главное — не нанимать «супер-инженера» с опытом в крупных корпорациях. Ищите специалиста, который умеет работать с простыми инструментами (например, ChatGPT + база знаний) и понимает ваши цели. Начните с одного процесса — например, автоматизации ответов в Telegram-боте. Если результат будет положительным — расширяйте.

Какие ошибки чаще всего допускают при найме LLM-специалиста?

Три главные ошибки:

  1. Смотрят только на резюме. Многие кандидаты вставляют «LLM» везде — даже если они никогда не работали с моделями.
  2. Не проверяют практические навыки. Говорят: «Он отлично отвечал на вопросы» — но не дали тестовое задание.
  3. Не связывают ИИ с бизнес-целями. Спрашивают: «Какие модели ты знаешь?», а не: «Как ИИ поможет увеличить конверсию?»

Решение: всегда давайте тестовое задание, даже если оно простое. И спрашивайте: «Как это повлияет на мою прибыль?»

Нужно ли LLM-специалисту знать английский?

Знание английского — не обязательное требование, но крайне желательно. Большинство инструментов (LangChain, Hugging Face, OpenAI API) и документация на английском. Также большинство качественных моделей изначально обучены на английских данных. Если специалист не понимает англоязычные термины — он будет зависеть от переводчиков, что замедлит работу. Минимум: читать техническую документацию без перевода. Если вы планируете работать с международными клиентами — английский обязателен.

Как понять, что ИИ-система работает хорошо?

Не доверяйте интуиции. Используйте метрики:

  • Точность: насколько ответы соответствуют реальности? Проверяйте на выборке из 50 запросов.
  • Скорость: сколько времени занимает ответ?
  • Консистентность: одинаковый ли ответ на один и тот же вопрос?
  • Количество галлюцинаций: сколько раз модель придумала несуществующую информацию?
  • Удовлетворенность клиентов: опросы после взаимодействия с ИИ-системой.

Сравните результаты до и после внедрения. Если конверсия выросла, время ответа сократилось, а жалоб уменьшилось — система работает хорошо.

Сколько времени нужно, чтобы настроить ИИ-систему?

От нескольких дней до нескольких недель. Простая система — например, автоматизация ответов на 5–10 частых вопросов — может быть готова за 2–3 дня. Сложная система с RAG, мониторингом и интеграцией в CRM — требует 3–6 недель. Главное — начать с минимально рабочей версии (MVP), протестировать и постепенно улучшать. Не пытайтесь сделать «идеальную» систему с первого раза — это приведет к перегрузке и провалу.

Что делать, если ИИ начал давать ошибочные ответы?

Не паникуйте. Это нормально — особенно на ранних этапах. Действуйте по шагам:

  1. Соберите примеры ошибок — запишите запрос и неверный ответ.
  2. Проверьте базу знаний — не устарела ли информация?
  3. Проверьте промпт — нет ли двусмысленности или противоречий?
  4. Добавьте ограничения: «Если не уверен — говори, что не знаешь».
  5. Настройте ручной контроль: для критических ответов — проверка человеком.
  6. Внедрите систему обратной связи: клиенты могут отмечать «ответ не помог» — и это будет тренировочные данные.

ИИ — не волшебная палочка. Он требует ухода, как любой инструмент. Регулярная проверка — залог успеха.