Тема AI, конечно, большая. Здесь целое непаханное поле для плагинов, улучшающих AI. И нет предела совершенству, но закрыть все косяки AI, которые дожили до 2021-го года, трудоёмкая, а - главное - мало кому нужная задача. Однако поправить самые вопиющие моменты следует.
Глядя на функции взвешивания хочется плакать. Это такая аппроксимация. Единственное оправдание этому то, что в 1999-м году очень важно было экономить время CPU. Если кто помнит, Герои 3 были довольно требовательной игрой и много кого разочаровали потому, что не хотели нормально работать на машинах, которые тянули Героев 2. Я думаю, именно поэтому такие упрощения. Много упрощений и есть косяки (отсутствуют банальные проверки, симуляция идёт против какого-то идеального отряда, который юнит даже атаковать не собирается и т.п.). Поэтому чуток поправить не повредит. Понимаю, смысла нет особого, все давно привыкли нагибать AI и считать его баги фичами, но посмотреть всё равно хочется, на что он способен с минимальными правками.
И это только начало. Наверняка есть новое поколение геройщиков-моддеров (пусть и не такое многочисленное), которое не знает, как сделать что-то, что бы превзошло все достижения прошлого
Казалось бы, всё давно разобрано на винтики и гаечки (хотя бы той же HotA Crew), а я скажу, что к AI даже и не прикасались, в том числе и HotA Crew. Так что, дерзайте. Впереди ещё один дивный мир под названием AI.
Вот тот человек, который писал AI к Героям 3.
https://mightandmagic.fandom.com/wiki/Gus_SmedstadА ИИ то, по сути, со времен RoE особо и не менялся. За исключением мелких правок.
Вот вы пишите:
но закрыть все косяки AI, которые дожили до 2021-го года, трудоёмкая, а - главное - мало кому нужная задача.
и
Понимаю, смысла нет особого, все давно привыкли нагибать AI и считать его баги фичами, но посмотреть всё равно хочется, на что он способен с минимальными правками.
А я считаю что это очень даже много кому нужная штука и смысл в этом есть огромный. И на это стоит обратить внимание, раз даже HotA не прикасались к AI.
Ведь вы же сами пишите:
Начал с энтузиазмом, но на 6-й миссии понял, что я выиграю как ни крути.
Мотивация пропадает продолжать игру, когда вы видите, что легко побеждаете.
А все потому, что в 1999-2001, когда многие игроки только учились играть, много чего было неизвестно, игроки узнавали что-то новое и еще не знали многих фич, которые известны и активно применяются сейчас, как в бою, так и на карте. Плюс у большинства в то время не было еще интернета, чтобы делится полученным опытом и знаниями с другими. И вот в то время для большинства ИИ был вполне конкурентоспособен.
Сейчас же, спустя 25 лет о Героях известно практически все (куча справочников, один FizMig чего стоит) и уровень игроков очень сильно вырос, в то время как ИИ остался на прежнем уровне.
Поэтому, я считаю, чтобы вернуть былой интерес (особенно опытным игрокам, которые хорошо играют) нужно усиливать оригинальный ИИ.
Задача минимум - это написать плагин, который бы правил баги и функции оригинального ИИ и добавлял, возможно, новые функции, которые помогают усилить оригинальный ИИ и вывести его на новый уровень.
Задача максимум - написать мод, где с чистого листа с нуля будет переписан весь оригинальный
Adventure AI и
Battle AI.
Но я прекрасно понимаю всю трудоемкость и сложность данной задачи. И понимаю, что бесплатно вряд ли кто этим будет заниматься.
Но даже если бы подобный плагин/мод был платным, услоно говоря по подписке, то я уверен, что даже при этом, было бы немало желающих готовых заплатить (в пределах разумного, конечно), чтобы опробовать новый AI.
Когда ИИ будет разбивать стек юнитов на единички, прикрываться ими, использовать в бою и на карте все то, что используют сегодня опытные игроки-люди, будет очень интересно.
В наше время с развитием технологий, алгоритмов, нейросетей можно было бы написать такой ИИ, который обыгрывал бы лучших игроков-людей в Герои. Здесь можно провести параллель с шахматами.
Еще 96-97 году, еще тот устаревший символический ИИ Deep Blue от IBM с которым играл Каспаров, играл уже на его уровне, а в 97 даже его обыграл. Подробно о противостоянии можно почитать здесь
https://www.sports.ru/tribuna/blogs/interval/2866672.html.
Это как раз времена 1-2 Героев. Сейчас даже против средненьких шахматных программ у лучших шахматистов нет никаких шансов.
Интересно! Цифровой рывок: шахматные программы В 1951 году англичанин Алан Тьюринг написал первый алгоритм шахматной программы. В 1952 году появилась первая компьютерная шахматная машина — MANIAC I, которая с помощью алгоритма MiniMax оптимизировала дерево поиска хода. Спустя восемь лет американский ученый Аллен Ньюэлл разработал компьютерную программу для решения математических и шахматных задач — General Problem Solver.
В конце 1980-х годов компьютер Deep Thought победил гроссмейстера Йоргена Бента Ларсена. В 1997 году действующий чемпион мира Гарри Каспаров проиграл компьютеру Deep Blue, который умел обрабатывать до 200 млн позиций в секунду и имел доступ к огромной базе данных дебютных позиций из реальных партий гроссмейстеров. С 2000-х годов шахматисты перестали питать надежды на превосходство перед шахматными движками.
«В 1997 году действующий чемпион мира Гарри Каспаров проиграл компьютеру
Deep Blue»
Начиная с 2008 года первые места большинства рейтинговых списков и соревнований среди компьютерных шахматных программ занимал шахматный движок
Stockfish. Благодаря расширенному алгоритму поиска оптимальных ходов и большой шахматной базе для анализа он стал сильнейшей шахматной программой, которая не использует графический процессор (GPU). Идеология
Stockfish как свободного движка с открытым исходным кодом сделала его популярным для модификаций и встраивания в различные системы — например, такие, как сервис
Lichess.
В 2017 году компания
DeepMind разработала самообучающуюся нейронную сеть
AlphaZero. Потренировавшись всего 24 часа, она победила сильнейшие программы по играм в шахматы, сеги и го.
Это не традиционный шахматный движок: для
AlphaZero не прописывали сложные алгоритмы вычисления оценки, как, например, для
Stockfish. В его обучении задействовали технологии
Machine Learning. Путем проб и ошибок для изучения каждой новой игры неподготовленная нейронная сеть разыгрывала миллионы партий против самой себя случайным образом.
Такой подход называется обучением с подкреплением. Сначала нейросеть играет совершенно случайным образом, но со временем учится на выигрышах, проигрышах и ничьих, чтобы корректировать параметры и повышать вероятность выбора выгодных ходов в будущем. Для выбора наиболее перспективных ходов нейросеть использовала поиск по дереву Монте-Карло (MCTS).
AlphaZero выбирает ход для игры, основываясь, по сути, на том, какой ход дает самую высокую предполагаемую вероятность окончательного выигрыша, в отличие от традиционных движков, у которых выбор хода — это тот, который приводит к наиболее выгодной на вид позиции на фиксированном расстоянии.
Нейросеть
AlphaZero использовалась в подготовке Магнуса Карлсена к матчам и чемпионатам. Отсутствие привязки к алгоритмической и аналитической оценке при выборе хода сделало ее более изобретательной и непредсказуемой для оппонентов.
AlphaZero с запасом побеждает самые сильные шахматные движки, в том числе и
Stockfish. При этом она оценивает всего порядка 60 тыс. позиций в секунду, в то время как
Stockfish — 60 млн.
О Монте-Карло:https://habr.com/ru/articles/282522/https://habr.com/ru/companies/selectel/articles/794658/https://en.wikipedia.org/wiki/Monte_Carlo_tree_searchНо настоящим прорывом в области ИИ стало создании программы, которая смогла обыграть лучших профессиональных игроков в ГО.
Вот почему: До создания AlphaGo го являлось одной из немногих традиционных игр, в которые человек играл лучше компьютера.
Го намного сложнее шахмат из-за большего количества возможных позиций. Во-первых, как правило, в го в каждой позиции существует больше разрешённых ходов, чем в шахматах. Во-вторых, партия в го в среднем длится больше ходов. Эти два свойства делают го очень сложной для традиционных методов искусственного интеллекта, таких как альфа-бета-отсечение.
Другая сложность го по сравнению с шахматами и многими другими логическими играми заключается в создании оценочной функции, сопоставляющей произвольной позиции определённую оценку: для какой из сторон данная позиция выгоднее и насколько (либо позиция равная). В AlphaGo используются 2 нейронные сети, одна из которых специализируется на оценке позиции. Таким образом, её можно условно назвать аналогом оценочной функции в шахматах.
По этим причинам даже спустя почти двадцать лет, после того как компьютер Deep Blue впервые выиграл у чемпиона мира Каспарова в 1997 году, самые сильные программы, играющие в го, достигли только любительского 5 дана, и не могли выиграть у профессионала на полной доске 19х19.
Создание программы, которая хорошо бы играла в го, являлось камнем преткновения в развитии искусственного интеллекта.
Это было сделано в 2015 компанией Google DeepMind с помощью программы AlphaGo.
Подробней о AlphaGo AlphaGo — программа для игры в го, разработанная компанией Google DeepMind в 2015 году. AlphaGo стала первой в мире программой, которая выиграла матч без гандикапа у профессионального игрока в го на стандартной доске 19 × 19, и эта победа ознаменовала собой важный прорыв в области искусственного интеллекта, так как большинство специалистов по искусственному интеллекту считало, что подобная программа не будет создана ранее 2020—2025 годов. В марте 2016 года программа выиграла со счётом 4:1 у Ли Седоля, профессионала 9-го дана (высшего ранга), во время исторического матча, широко освещавшегося в прессе. После победы в матче Корейская ассоциация падук присвоила AlphaGo «почётный 9-й дан» за «искренние усилия» программы в овладении мастерством игры.
Победу AlphaGo над Ли Седолем часто сравнивают с шахматным матчем между программой Deep Blue и Гарри Каспаровым 1997 года, где победа программы, созданной IBM, над действовавшим чемпионом стала символической точкой отсчёта новой эпохи, когда компьютеры превзошли людей в шахматах. В отличие от Deep Blue, AlphaGo — это программа, которая не привязана к конкретному аппаратному обеспечению. Кроме того, AlphaGo основана на общих принципах машинного обучения и практически не использует (в отличие от шахматных программ) ни алгоритмов, ни оценочных функций, специфичных для игры в го. При разработке AlphaGo авторы использовали только самую элементарную теорию игры в го, программа достигла высокого уровня игры, обучаясь сама на партиях профессионалов. Таким образом, её методы машинного обучения могут быть использованы в других областях применения искусственного интеллекта. В частности, команда разработчиков планирует применить опыт, полученный при написании AlphaGo, для создания системы медицинской диагностики.
AlphaGo комбинирует технику, которая дала большой прорыв в силе программ для игры в го в 2007—2012 годах (метод Монте-Карло для поиска в дереве), и недавние успехи в области машинного обучения, а именно глубинное обучение с помощью многоуровневых нейронных сетей.
Дальше были улучшенный вариант
AlphaGo Zero и общий
AlphaZero (шахматы, сёга, го).
В отличии от
AlphaGo, которая использовала обширные базы данных партий Го, сыгранных людьми, для обучения
AlphaGo Zero (и
AlphaZero) для изучения каждой новой игры разыгрывала миллионы партий против самой себя случайным образом.
Поскольку
DeepMind пришла к выводу, что человеческие знания в игре Го могут быть изучены и превзойдены только с помощью самостоятельных игр, инициированных случайной политикой.
Кстати, есть еще ПО под название
AlphaStar от той же
DeepMind, играющая в
StarCraft II и ставшая первым ИИ, достигнувшим уровня лучших игроков в киберспортивной дисциплине.
По сути сейчас есть два подхода к созданию ИИ:1.
Традиционный: дерево поиска и алгоритм минимакс + его оптимизация в виде альфа-бета-отсечения + ряд дополнительных оценочных и оптимизационных алгоритмов.
2.
Современный: метод Монте-Карло для поиска в дереве + глубинное обучение с помощью многоуровневых нейронных сетей (обучение с подкреплением).
Первый подход использовал еще старый добрый
Deep Blue и большинство современных шахматных программ включая сильнейшую
Stockfish (до 2020 года).
Новый подход на основе нейросетей, который впервые использовали
DeepMind в своей
AlphaZero.
И вот когда
AlphaZero начиная с 2017 года начала обыгрывать
Stockfish, последняя в 2020 году включила в свои алгооритмы нейронную сеть
NNUE, вместе со стандартными оценочными алгоритмами. Тем самым, использую комбинированный подход
Stockfish смогла вернуть себе лидерство среди сильнейших шахматных движков.
Почему речь пошла о шахматах и го? Потому что между шахматами, го и Героями есть много общего. А поскольку действия выполняються поочередно, то те алгоритмы, которые используються в шахмтах и го могут успешно применятся и в работе ИИ для Героев.
Мне бы очень хотелось посмотреть как бы играл ИИ в Героях созданный на основе многоуровневых нейронных сетей.
При этом, возможно, мы смогли бы увидеть даже новые подходы к игровому процессу, не использовавшиеся ранее нигде и никем.Понятно, что если ИИ будет всегда или почти всегда побеждать, то также будет неинтересно игроку. Но для этого и существуют уровни сложности. Ослабить - не проблема. Все можно отбалансировать, тех уровней сложности можно хоть десяток добавить. Главное создать такой ИИ, который был бы конкурентоспособен для лучших игроков-людей. Чтобы было интересно играть всем, включая профи, а не только новичкам и слабым игрокам.
Если бы такой ИИ существовал для третьих Героев, то, думаю, многим бы захотелось по новой пройти родные кампании RoE, AB, SoD и попробовать перепройти с ним любимые карты. Попробовать свои силы против нового умного ИИ. Посмотреть как он будет играть, какие будет принимать решения на карте и в бою.
Но написания действительно качественного сильного ИИ для большинства рядовых программистов довольно сложная и даже неподъемная задача. Обычно для таких задач берут математиков-алгоритмистов, олимпиадников (по информатике/математике или физике, в идеале призеров республиканских и международных олимпиад) и успешных спортивных программистов. Которые сильны в алгоритмах и могут быстро и эффективно решать даже крайне сложные задачи. Да и оплата труда у таких программистов обычно самая высокая.
И в идеале нужна команда таких сильных опытных программистов хотя бы из нескольких человек. Хотя, может быть, хватило бы и одного человека, если, например, брать из ТОП20 рейтинга на таких ресурсах как
codeforces.com,
topcoder.com или
atcoder.jp, где большая часть многократные золотые медалисты
IOI, победители
Google Code Jam и
Facebook Hacker Cup, многие из которых работают в
Google или
Facebook или вовсе занимаются наукой.
Проблема хорошего ИИ, это проблема на самом деле многих игр, не только Героев.
Если же говорить о Героях, то это проблема
VCMI, это огромная проблема 6-7 Героев. Противник не собирает ресурсы, не сражается с нейтральными отрядами, не нападает на нас — он с легкостью может просидеть всю игру в своем замке, не делая вообще ничего.
Ubisoft со своими возможностями после 5 Героев, так и не смогла найти нормального разработчика для достойного продолжения серии. Получается, что и венгерская
Black Hole Entertainment и немецкая
Limbic Entertainment, так и не смогли найти нормальных программистов для написания качественного ИИ. Хотя там были и другие проблемы.
Это ОЧЕНЬ интересно Могу лишь предположить, что в США (NWC) и РФ (Nival) проще чем в Венгрии и даже Германии найти талантливого разработчика. Ведь США и РФ вместе с Китаем входят в тройку стран-лидеров по кол-ву завоеванных золотых медалей на международной олимпиаде по информатике. Что означает, что в этих странах самое большое кол-во талантливых разработчиков.
Отчасти это связано с кол-вом населения. Ведь вероятность рождения таланта выше. Но также это зависит и от среднесатистического IQ народа. Некоторые народы более способны и более предрасположены к программированию и точным наукам, чем другие.
Если бы все зависело только от кол-ва населения, то в Индии (в которой, кстати, проживает уже больше народа, чем в Китае) было бы примерно столько же золотых медалей сколько у Китая. А так у Индии всего 2 золотых медали, тогда как у Китая целых 100. Статистика здесь -
https://stats.ioinformatics.org/countries/?sort=medals_desc/Хотя, наверное, было бы не совсем верно вести сравнение только по кол-ву золотых медалей. Правильней было бы все же учитывать все завоеванные медали страной за весь период проведения олимпиады, но при этом ввести вес каждой медали. Поскольку распределенрие медалей там идет по кол-ву примерно таким образом, что золотых 2 раза меньше серебряных и в 3 раза меньше бронзовых, то получаем:
золото - 6, серебро - 3, бронза - 2. И сравнивать страны по формуле: 6 * кол-во золотых + 3 * кол-во серебряных + 2 * кол-во бронзовых. Но, опять же, сравнение корректно только в случае примерно одинакового кол-ва населения, как в случае с Индией и Китаем.
Хотя в Индии с 2002 года прооживало на 15% меньше населения, но с каждым годом этот процент уменьшался и в 2022 они уровнялись по кол-ву населения. Даже Индия вышла немного вперед. Но это незначительная погрешность, учитывая общее кол-во населения в каждой стране, которой можно пренебречь.
Куда более важно - это количество участий в IOI каждой страны. И вот здесь у Китая 35 участий начиная с 1989 года, а у Индии всего 22, так как участвовать она начала только с 2002 года.
Поэтому, если и сравнивать их результаты, то только начиная с 2002 года. А так у Китая будет по медалям не 100 - 27 - 12 (золото/серебро/бронза), а 74 - 13 - 1, тогда как у Индии - 2 - 22 - 39.
Итого:
Китай: 74 * 6 + 13 * 3 + 1 * 2 = 485
Индия: 2 * 6 + 22 * 3 + 39 * 2 = 156
Чуть более чем трехкратное преимущество.
Если же считать по общему кол-ву очков по задачам набранным всей командой страны за все года, то там будет двухкратное преимущество (44 тыс против 22 тыс) на стороне Китая.
Получается, что среднестатистический китаец гораздо более способен в точных науках, чем среднестатистический индус.
При этом, в Китае еще и конкуренция очень высокая. Те, кто потенциально мог бы взять медаль, возможно просто с чуть меньшим общим баллом, туда просто может не попасть.
Если же смотреть на количество гроссмейстеров на самой популярной в мире соревновательной международной платформе по спортивному программированию - codeforces.com, то ситуация для Индии куда более печальна.
Легендарный гроссмейстер - Международный гроссмейстер - Гроссмейстер:
Китай:
19 - 84 - 109
Индия:
0 - 2 - 2
Да и на межнародной математической олимпиаде у китайцев аж 180 золотых медалей, тогда как у индусов всего 16.
Все же индусы интелектуально намного слабее китайцев. Да, программистов средней руки среди индусов полно, но реальных талантов даже с учетом кол-ва населения - единицы.
Среди азиатов самыми интелектуально развитыми являються китайцы, тайванцы, корейцы и японцы. Но даже они немножко уступают славянским народам. Жило бы в РФ столько народа сколько живет в Китае, то вряд ли бы он оставался лидером.
Впечатляют результаты Польши, Румынии, Болгарии и Словакии. На удивление при куда меньшем населении у них куда больше медалей чем в самых развитых странах Европы: Германии, Англии, Франции и Италии.
Поляки вообще молодцы. Две самые крутые игрушки за последнее десятилетие были созданы именно поляками (The Witcher 3: Wild Hunt и Cyberpunk 2077). Нужно Ubisoft разработчика для 8 серии Героев искать в Польше.
***
Самым же сильным программистом до недавного времени был программист из РФ - Пётр Митричев.
Достижения:International Olympiad in Informatics: 2000 и 2002 - золото, 2001 - серебро
Google Code Jam - победитель 2006
Yandex.Algorithm - победитель 2011
Facebook Hacker Cup - победитель 2011, 2013, 2017
Topcoder Open Algorithm - победитель 2006, 2013, 2015, 2018
Обладал самым высоким рейтингом на
TopCoder - 3923, пока тот не был побит Короткевичем в 2022 году.
Работает в
Google над ядром поисковой системы.
Но его результаты затмил самый сильный программист на сегодняшний день, да и вообще за все время - белорус Геннадий Короткевич (ник -
tourist).
Впервые привлек к себе всеобщее внимание, когда в возрасте 11 лет прошел отбор на Международную олимпиаду по информатике (IOI) 2006 года, установив, тем самым, мировой рекорд с большим отрывом. Он завоевал серебряную медаль на своем первом мероприятии IOI и получал золотые медали с 2007 по 2012 год.
В настоящее время он является рекордсменом по количеству золотых медалей (шесть) и абсолютных первых мест (три).
Достижения:International Olympiad in Informatics: 2006 - серебро, 2007-2012 - золото.
Google Code Jam: победитель 2014 - 2020 (7 раз подряд - рекорд) + победитель 2022
Google Hash Code: победитель 2019, 2020
Kotlin Challenge: победитель 2014
Yandex.Algorithm: победитель 2010, 2013, 2014, 2015, 2017, 2018
Yandex Cup: победитель 2020
Facebook Hacker Cup: победитель 2014, 2015, 2019, 2020, 2023
Topcoder Open Algorithm: победитель 2014, 2019, 2020, 2021
Topcoder Open Marathon: победитель 2018, 2019
Russian Code Cup (от Mail.Ru Group): победитель 2014, 2016
Чемпионат мира в комманде ACM-ICPC: победитель 2013 года (команда) и победитель 2015 года (команда)
Обладатель самого высокого рейтинга на всех соревновательных платформах по спортивному программированию за всю их историю:
TopCoder (4107),
Codeforces (3979),
AtCoder (4229).
Google,
Facebook и другие неоднократно предлагали ему работу, но он всем отказывал. Играми не интересуется и не играет, хотя и может написать что угодно, ИИ любой сложности. Занимается исключительно наукой.
Также очень слабый ИИ в 4 Героях и довольно посредственный в 1 и 2.
Наиболее сильный, хоть и не идельный ИИ в Героях 5. На втором месте - в Героях 3. Но оба есть куда улучшать.
Так вот ИИ 5-ых Героев хоть как-то, но был усилен
Quantomas'ом. В то время как ИИ третьих Героев - самой популярной в серии, за 25 лет так толком до сих никто и не улучшил.
***************************************
И еще один важный момент, который мне лично хотелось бы чтобы он был исправлен в ближайшем будущем в Героях - это графика, а именно ее разрешение. Хотелось бы наконец-то получить полноценный HD.
Для меня графика в Героях 3 является эталоном 2D-графики. Этот брутально реалистичный уникальный сказочный ретро стиль очень цепляет. Несмотря на якобы крутую современную 3D-графику, мне совершенно не нравится тот графический стиль, который был выбран для 5-7 Героев. Какое-то жалкое подобие WoW и аниме, выглядит все отвратительно и совсем не реалистично.
Да и переход с 2D на 3D слишком многое изменил. Это уже не те Герои к которым мы все так привыкли.
Как многие знают, Герои рисовались под экраны с разрешение 800x600 пикс и соотношение 4 к 3.
Именно по этой причине при использовании HD-мода на современных широкоформатных мониторах окно битвы и города не на весь экран (хотя многие почему-то не могут этого понять). Мод не растягиет и не искажает оригинальные пропорции. Основная фишка - это отрисовка карты. Карта отрисовывается, конечно, на весь экран, увеличивая обзор карты на широкоформатных мониторах, используя с пользой свободное пространство.
В конце 80-х в начале 90-х самым самым популярнум разрешением было 640 x 480. А уже со средины 90-x лидерство перешло к 800 x 600 и 14 дюймовые мониторы с разрешением 800x600 и плотностью пикселей 72 ppi стали стандартом на долгие годы.
Хотя в конце 90-x уже появлялись мониторы с поддержкой разрешения 1024x768 и плотностью 90+ ppi, они еще не были настолько популярны. Лидерство к 1024x768 окончательно перешло лишь в 2003 году. Как раз в то время начался постепенный переход на ЖК мониторы и разрешение 1280x1024 с новым соотношением 5 к 4. Ибо многие годы стандартом было именно соотношение 4 к 3 (640 480, 800x600, 1024x768).
С 2007-2008 началась мода и переход на широкоформатные мониторы с соотношение 16:10 и популярным тогда разрешением 1680x1050. C 2010-х пошел переход на соотношение 16:9 с разрешением FullHD (1920x1080), который стал стандартом на долгие годы. Но в последние годы наблюдается постепенный переход на 2K (2560x1440) с диагональю 27 дюймов (реже 32"), хотя FullHD особенно на 23-24 дюймах до сих пор остается очень популярным выбором для домашних мониторов. 4K это сейчас стандарт лишь для теллевизоров, тогда как в домашних мониторах по ряду причин используется гораздо реже.
Так вот в наше время можно сказать есть 2 стандарта для домашних мониторов - это 22-24" с разрешением Full HD (1920*1080) и 27" (реже 32) с разрешением 2K (2560x1440).
Разрешение 800x600 с плотностью пикс 72 ppi соответствовало монитору с диагональю в 14 дюймов. Когда создавались Герои 1-3 на рынке преобладали именно такие мониторы.
В большинстве современных домашних мониторах ppi находится в пределах от 90 до 109 на диагоналях 22-27.
Для мониторов FullHD с диагональю 22-24 (21,5-24,5) - это 90-102 (в среднем 92-96 для 23-24 дюймов). Плюс 2K на 32" - это тоже где-то 92 ppi. Для 27 дюмового монитора с разрешением 2K - это 109 ppi.
Так вот на современном 24 дюймовом мониторе с разрешением FullHD, в оконном режиме окошко игры займет чуть менее 11 дюймов, если мы говорим о родном разрешении 800x600 (если с модом на другом разрешении, то это будет относится к экрану города и битвы).
На 27 дюймовом 2K мониторе Герои займут всего примерно 9 дюймов. Именно в таком оконном режиме мы можем наблюдать наиболее резкую, детализированную и приятную глазу картинку. Но, к сожалению, слишком мелкую.
Все потому, что если на мониторе установлено родное рекомендуемое разрешение, то ppi картинки выводимой в область этого окошка будет соответствовать родной плотности монитора 92 ppi и 109 ppi соответственно. Да, оно займет свои родные 800х600 на экране, но на современных мониторах это всего 13-23% от площади всего экрана. Картинка будет мелковатой, хотелось бы побольше, но при этом без потерь в качестве.
При увеличении этого окошка (или полноэкранном режиме) можно заметить замыливание, падения резкости и ухудшения качества изображения.
Реально ли сделать так, чтобы на современных мониторах картинка в Героях в полноэкранном режиме (когда картинка крупная) была такая же резкая, детальная и качественная как в оконном (когда картинка мелкая)? Вполне.
Но для этого нужно проделать немалый объем работы - перерысовать все оригинальные спрайты в более высокое разрешение, что для одного человека почти не подьемный объем работы.
А у комманды может занять месяцы или даже годы. Да и непонятно какого качества на выходе будут новые спрайты, тем более если ими будут заниматься разные люди.
В 2015 году
Ubisoft c помощью
DotEmu уже пытались переиздать
RoE в
HD под современные мониторы с высоким разрешением + планшеты на iOS и Android. В итоге получилось мягко говоря так себе. Полностью все оригинальные спрайты они не перерисовывали. Растянули, размазали, сгладили и получили на выходе какую-то акварельку с безвозвратно утерянными оригинальными деталями.
При этом,
DotEmu также не перерисовывала города и окно битвы под HD 16:9 или под все другие популярные соотношения (5:4, 16:10, 16:9), а оставила их в оригинальном соотношении 4:3, залепив боковушки заглушками. Самая обычная халтура.
Несмотря на то, что спрайты HD-версии хранятся не в
LOD, а в
PAK (с помощью
MMArchive их уже не вытащишь), перенести их все же можно было, если бы они были нормального качества.
Помню как-то
baratorch писал, что мог бы заморочится и перенести графику с HD от
DotEmu и зашить ее в HD-мод, подменяя ею оригинальные спрайты. Но в качестве графики от
DotEmu он разочаровался, поэтому и не стал заморачиваться.
Правда графика Сопряжения и новых артов добавленных в дополнениях в любом случае осталась бы оригинальной при игре в SoD через мод.
***
Но надежда остается. Учитывая стремительное развитие нейросетей и те чудеса, которые сейчас творят
Midjourney и
DALL-E 3, все возможно.
Я вот для примера взял оригинальные спрайты нескольких юнитов и проапскейлил их через
upscale.media.
Получилось вполне себе неплохо. Платные сервисы наверняка справятся еще лучше.
Оригинал upscale.media - 4x Но лучше всего было бы если бы ИИ не просто апскейлил предложенную картинку, а отрисовывал ее по новой, но при этом строго придерживался стиля, который был на загруженном исходнике. То есть по сути перерисовывал картинку в более высоком разрешении.
Сейчас по сути
Midjourney и
DALL-E 3 рисуют изображения по заданным промтам. Это как бы основа. Но нам этот вариант не совсем подходит.
Но, насколько я могу судить из описания в сети, в
DALL-E 3, например, есть доп функционал, например, вот этот:
< создавать изображения, подобные предложенному оригиналу. >
Кстати, еще в
Stable Diffusion есть что-то подобное:
< генерирует изображения по эскизам. >
Это примерно то, что нам нужно. Возможно, что-то подобное уже появилось и в
Midjourney.
Но проверить как это все работает я, к сожалению, не могу. Если у кого есть проплаченная подписка, то можете поделиться своим опытом.
В теории даже экраны битвы и города можно будет перерисовать с помощью нейросетей под широкоформатные мониторы, да вовсе под все соотношения отличные от оригинала (4:3) - 5:4, 16:10, 16:9 и при желании даже - 21:9, 32:9, 32:10. И закодить можно в том же моде, чтобы в зависимости от выбранного пользователем разрешения загружались ресурсы с нужным соотношением.
Тогда даже экраны битвы и города будут на весь экран, резкими, детальными и в полноценном HD.
Учитывая, что с каждым годом нейросети становятся все умнее и функциональней, то может быть как-нибудь в ближайшем будущем кто-то заморочится и все получится.