О конкретных новых результатах я регулярно рассказываю на своей странице в Контакте,
подписывайтесь!
А если в общих словах и не считать недавние отступления в историю
математики , то большая часть моих исследований укладывается в тему параметризованной теории сложности: это многомерный подход к анализу сложности вычислительных задач, который измеряет сложность не только относительно объёма входных данных, но и относительно других параметров. Это позволяет отвечать, например, на следующие вопросы:
1. Как эффективно и оптимально решать NP-трудные задачи оптимизации? Многие задачи комбинаторной оптимизации относятся к так называемым NP-трудным задачам. Например: отыскание кратчайшего обхода заданного подмножества вершин или рёбер графа, отыскание кратчайшего расписания для выполнения проекта, или оптимальная кластеризация данных.
Решение NP-трудных задач, как правило, требует времени, зависящего экспоненциально от объёма входных данных. На практике алгоритмы с такой трудоёмкостью неприемлемы даже при малых объёмах данных, так что о модных "больших данных" в этом контексте можно даже не заикаться. Но есть параметризованные алгоритмы: они решают NP-трудные задачи за время, зависящее, например, лишь линейно от объёма входных данных, а экспоненциально лишь от дополнительных параметров. Поэтому параметризованный алгоритм решает даже NP-трудную задачу эффективно в
приложениях, в которых параметр принимает малые значения.
Так что параметризованная теория сложности отвечает на вопрос, из-за чего именно вычислительная задача труднорешаема? Какие параметры, помимо объёма входных данных, влияют на её сложность? Может быть, они
в конкретном приложении малы и не так страшен чёрт, как его малюют?
2. Как доказывать эффективность алгоритмов редукции данных? Так как время работы алгоритмов зависит от объёма входных данных, желательно сводить исходные данные вычислительной задачи к данным меньшего объёма, не портя при этом оптимальное решение. К сожалению,
если не P=NP, то таких алгоритмов редукции данных нет для NP-трудных задач.
Однако тут тоже поможет параметризованный подход: можно уменьшить объём входных данных так, чтобы он был ограничен сверху функцией от параметров помимо объёма входных данных. Это позволяет строить алгоритмы редукции данных с гарантиями качества, то есть с доказуемыми оценками результативности, скорости, и качества решений.