Pensei diversas vezes antes de postar esse notícia,
Mas como aqui é um lugar para debate onde eu posso tecer minhas idéias de maneira livre, convenci-me a redigi-la:
Quando apareceu na mídia boatos sobre a CPU fornecida pela IBM para o Wii U ser uma versão Tri-core do Broadway, processador Single Core de 729Mhz do Wii. Choveu uma pancada de criticas dos “tecnicistas de plantão” pra cima da Nintendo, com aquelas velhas máximas das Mães Dinah´s de plantão de que PS4 e X720 vão “destruir “o Wii U, deixando o mesmo sem suporte algum das Third´s...
Só que hoje a IBM (aparentemente irritada em ver seu nome em boatos) voltou a afirmar (via seu canal oficial no Twitter) que a CPU do Nintendo Wii U é baseada na tecnologia dos excelentes processadores Power7/Watson.
Isso mataria de uma vez por todas os boatos sobre a fraqueza do Wii U nesse quesito.
Porém eu tenho minhas dúvidas!
Alguns caras da indústria que estão produzindo games pra Wii U andaram dizendo que o CPU do Wii U é parte fraca do sistema (daí deve ter surgido esses boatos infundados) e que ele pareceria mais lento que dos atuais X360 e PS3, mas que isso nãos seria problema, pois era facilmente contornável.
Ninguém me tira da cabeça que essa versão “custom” do Power7 não foi “rebaixada” um pouco (ou até drasticamente) para custear o aparelho. E que por isso a Iwata ressaltou que a GPU do Wii tinha tecnologia GPGPU. (nessa altura vocês já sabem que merda é essa né mesmo? Oi?)
Porque eu digo isso? Oras amigos, os Chips Gráficos de hoje são absurdamente independentes da CPU! Tanto faz se você coloca uma HD7970 num Core i3 como num Core I7 a diferença vai ser em torno de 15% de desempenho na média!
Isso por que a VGA faz 90% do trabalho (cálculos físicos, renderização e o escambau) justamente pela popularização do chamado GPGPU,.
Faria todo o sentido a Nintendo cortar na CPU e não na GPU, boatos dizem que foi inversamente proporcional, quando mais ela cortou na CPU, mas ele fortificou a GPU,
Justamente porque a mágica de processar diversas imagens ao mesmo tempo e de mandá-las pra fontes diferentes é feito na GPU da AMD, e não no CPU da IBM.
Quem não lembra que a idéia da Nintendo era usar apenas um GamePad com tela? E que depois de duras criticas ele resolveu mudar o hardware para ele ser capaz de mandar imagens pra pelo menos dois (na verdade a Nintendo queria quatro!!, mas não deu...), Touché!!
Não vou dizer que gráficos não interessam ou que pouco me importam as “spec´s” do novo console da BigN, estaria mentindo!!
Mas não é o fato do console não rodar “features” a lá DX11 que não serão feitos jogos belos pra ele, DX11 já existem a quase 3 anos no PC e hoje são raros os jogos que usam o mesmo de maneira convincente.
Ah! mas os consoles atrasaram o desenvolvimento dos jogos de PC... eu não digo os consoles e si, mas os custos com certeza, somente agora com a invenção de Engines que usam todo o potencial do DX11 de maneira mais amigável é que ele será mais acessível.
Se a BigN incrementasse uma GPU com suporte a ele, sem dúvida em termos de força bruta ele perderia para atual GPU “DX10” do Wii U, e devido a custos somente.
Não é a toa que uma GPU HD4890 em termos de desempenho gráfico é muito melhor que várias GPU´s DX11 de baixo custo (menos 400 reais), em jogos sem suporte a essa tecnologia.
Por esses motivos as notícias recentes (como essa de hoje) sobre o Hardware do Wii U só me deixam com mais vontade de comprá-lo, fora os jogos da Nintendo, é claro!






0 comentários:
Postar um comentário