Que Project Scorpio será uma maravilha técnica é algo que, felizmente, já sabemos, mas como dizem, o poder sem controle não adianta em nada e no final, o poder está sempre na mão das figuras mais importantes da indústria: os desenvolvedores de games.
Brad Wardell, uma figura conhecida, é o CEO da Stardock e responsável pelo desenvolvimento de vários jogos, inclusive no uso de DirectX12 no PC. Por seu profundo conhecimento sobre a API têm frequentemente realizado declarações interessantes que ninguém da equipe da Microsoft é capaz de nos dizer. Neste caso, ele queria rever a grande vantagem de ter um 12 Gb de memória RAM Project Scorpio com este tweet:
Re Scorpio: 12GB of GDDR5 memory means (for some years) no real technical limit on games.
— Brad Wardell (@draginol) April 23, 2017
Como você sabe, Digital Foundry anunciou que o Project Scorpio pode usar até 8 Gb desses 12 para jogos. No decorrer dos anos, na visão de Brad, o Scorpio não será um limitado por conta dessa restrição de usar apenas os 8 Gb. Afinal, até as placas de vídeo mais populares no momento são RX 480/580 e a GTX 1070, que ambas têm 8GB.
Você está contente com o que já foi anunciado? Ou acha que faltou algo?
Eu acho que a mágica da Microsoft com o Scorpio está mais no software do que no hardware. Não tem como comparar com o uso de recursos num PC, por causa da otimização… O que exige 16GB num PC pode rodar com 12GB ou até 8GB no Scorpio sem problemas.
Como o maior gargalo do Xbox One é a memória mesmo, aumentar e fazer tudo GDDR5 ajuda bastante.
Xbox 360 roda GTA V com apenas 512 MB otimização máxima haha
Até hoje não sei como fizeram essa bruxaria, mas ok. hahahahah
Castraram as texturas e os polígonos o máximo que podiam rsrsrs
E acho que não roda em Full HD tb.
Não tenho certeza, mas acho que o PS3 tem só 256mb…
Se 512mb é milagre…imagina metade disso!
Sei que são duas arquiteturas diferentes, mas não sei quanto às especificações…
O PS3 tem 256 de ram mas 256 memória de vídeo, quando o Xbox 360 tem 512 compartilhada em ambas assim ele consegue em momentos do jogo usar mais memoria pra ram ou pro video no PS3 fica limitado a 256
A arquitetura dele possibilitava isso… Já a do One não. Infelizmente rsrsrs
A memória não é o único gargalo do Xbox One, a GPU também deixa um pouco a desejar, isso se comparado ao PS4 base.
Vem monstro
Que o Scorpio é bem otimizado e potente até demais da conta, toda mundo sabe. Mas o que ninguém pode esquecer é a declaração da equipe Xbox em voltar a fazer um console fácil e sem complicações pros desenvolvedores.
Lembra do PS3? quase todo desenvolvedor reclamava de fazer jogo ali (no inicio), enquanto isso, todos queriam fazer jogos pro X360. Essa praticidade para os desenvolvedores tem muita importância até mesmo pra geração toda.
Por isso entendo a posição da Microsoft em “quebrar” a geração, ou faziam isso, ou ficaria com os mimimi de muitos desenvolvedores em fazer jogos pro Xbox One. Que seja assim pra todos os próximos Xbox’s.
Mas o desenvolvimento de jogos no One não passa/passou por problemas como foi no PS3… O One usa x86, o mesmo do PS4 e o mesmo do PC, o que facilita muito a vida dos devs.
Exatamente, a limitação do Xbox One era de potência, não de arquitetura. Teve vários consoles ao longo da história que fracassaram simplesmente pela complicação de desenvolver jogos pra eles… O Sega Saturn por exemplo tinha OITO co-processadores, dois deles principais. Enquanto o PSX tinha um MIPS R3000 feijão com arroz. Óbvio que os desenvolvedores foram todos pro lado da Sony, ainda mais devido ao lançamento desastroso do Saturn. O N64 tb era complicado, por motivos semelhantes: a CPU era um MIPS VR4300 customizado pro console, mas a GPU tinha dois processadores se comunicando um com o outro (RSP e RDP), e acertar o “tempo” deles era difícil. Qualquer um que já usou aquelas placas dual core da Nvidia (as GTX 295 da vida) sabe que existem muitas complicações em se fazer dois chips gráficos trabalharem em conjunto, até mesmo na mesma placa. SLI não foi pra frente por causa disso tb. Quem conhecia as peculiaridades do hardware do N64 (seja por ser first ou second-party, seja por engenharia reversa) fazia milagres com o console, mas a Nintendo reservava os segredos só pra si e pros seus parceiros mais próximos (Rare por exemplo), impedindo as third-parties de atingirem todo o potencial da máquina.
Legal essas informações sobre o hardware do N64, isso ai eu desconhecia. =]
Até pouco tempo atrás eu vi um vídeo do canal “The Ben Heck Show” e o cara explicou que outra complicação no hardware do Nintendo 64 era o gerenciamento da memória RAM, que a Nintendo optou por deixar unificada já nessa geração, só que quem gerenciava a fila era a GPU, então se a CPU precisava usar a memória, tinha que esperar a GPU estar desocupada antes.
No PS1 era diferente, quem gerenciava todo o sistema era o Chipset da Sony, e tanto o CPU quanto o GPU tinham memória dedicadas individuais, trabalhando assim com mais eficiência.
O legal de tudo isso é ver a forma como cada fabricante lidava com o hardware para superar o custo e as dificuldades da época e conseguir levar ao consumidor um hardware acessível (que nem sempre era tão acessível assim).
Pois é, foi um erro da Nintendo, até pq o N64 tinha só 4.5MB de memória e foi necessário um upgrade no meio da geração pra rodar jogos mais pesados. Mesmo assim, não deu muito certo pq jogos em 480p naturalmente vão forçar mais a GPU e, como vc disse, a GPU tinha prioridade no acesso, o que tornava os jogos muito lentos a menos que vc usasse a resolução normal de 240p.
Mas os jogos mais bonitos do N64 eram sensacionais. Me arrisco a dizer que se o Perfect Dark por exemplo tivesse sido lançado pro Dreamcast ou mesmo pro PS2, ainda assim seria elogiado na parte gráfica.
A Nintendo foi até as últimas consequências com o N64, fez parceria com a Silicon Graphics, com o objetivo real de entregar uma máquina poderosa, mas acabou tomando decisões equivocadas no projeto, que tinham a ver menos com a eficiência da máquina do que com a política antipirataria da empresa. Aquela era uma era em que armazenamento era mais importante do que velocidade, então os CDs saíram favorecidos contra os cartuchos. Curioso é que hoje vemos o contrário, pq os cartuchos usam memória flash e as mídias ópticas estão atingindo o limite do seu desenvolvimento.
Os emuladores de N64 hoje usam plugins baseados no Glide, o que me leva a crer que havia muita troca de ideias entre engenheiros do Vale do Silício na época, pq pouco depois do lançamento do N64 a 3dfx lançou a primeira placa Voodoo, com suporte a Glide.
No geral eu concordo com vc, aquela época era mais interessante, pq as soluções que os fabricantes adotavam eram mais visíveis ao público. O SNES tinha várias sacadas interessantes, além de suporte a chips auxiliares, mas o Mega Drive contra-atacava com a sua CPU mais rápida. O SNES não era mais “poderoso” que o Mega Drive, por assim dizer, mas o seu projeto era melhor… O console era expandido com chips nos cartuchos, enquanto o Mega Drive precisava de acessórios caros, que acabaram sendo um fracasso de vendas.
Cara, é muito bom quando você fala com alguém que entende dessas coisas. Concordo com tudo! Eu só não sabia que o Expansion Pack do N64 tinha como objetivo aumentar a resolução dos jogos, acreditava que era apenas um boost para carregar melhor texturas e permitir jogos com mundos maiores (Como o Banjo-Tooie e DK64).
O N64 deve ter sido o equivalente ao PS3 dos dias de hoje, no quesito dificuldade para os desenvolvedores, já que era necessário programar os jogos em level mais baixo. Em compensação, para quem tinha talento, era possível fazer jogos com qualidade muito próximos ou até melhor do que no PC… Basta pegar o Conker Bad Fur Day e ver o trabalho. Se a Nintendo tivesse investido em um leitor de CDs para o N64, talvez o console pudesse ter mais jogos com qualidade equiparável ao de um Dreamcast.
E falando em Dreamcast, acho que o console mais fácil de desenvolver nessa época deveria ser ele. Já li muitas matérias que falavam muito bem sobre a simplicidade de desenvolver e portar jogos para a plataforma. A Sega fez a lição de casa, pena que desistiu no meio do caminho. Era capaz ainda de ter ficado afrente da Nintendo no final da geração.
Mas eu não quis dizer necessariamente “problemas”. Você vê várias declarações de que os desenvolvedores reclamam da memória esram do xbox one (inclusive, foi retirada do scorpio por pedido dos devs). E outros mimimi…
Não é problemático fazer jogos no one, mas também não é simples, coisas que os próprios devs falam. e foi isso que quis dizer, qualquer chatice pra desenvolver um jogo, já se quebra quase uma geração toda.
Compreendo…
Ele esta certo. Todo hardware com o passar do tempo fica defasado, e no Scorpio não vai ser diferente. Ele possui 3GB a mais do que o modelo original e por enquanto isso é o suficiente para atualidade.
Precisa levar em consideração, antes de fazer comparações, que no PC você tem a RAM do sistema e a RAM da VGA, que trabalham de formas individuais, enquanto no Xbox e PS4 é tudo unificado. São sistemas com hardwares similares, mas que funcionam de forma bem diferentes.
Outro ponto a se levar em consideração é que o Scorpio é um console de meio de geração, e o objetivo dele deve ser durar mais 2 ou 3 anos a frente, até que o próximo console seja anunciado para fazer frente ao futuro PS5, que obviamente será mais atualizado e melhor do que o Scorpio.
mas um próximo console, rodando jogos próprio dele, de scorpio, one e 360. Vai ser muito top mano.
Ou seja, somente por enquanto não é uma limitação técnica para os jogos já que o alvo desses jogos é o Xbox One, mas para jogos de futura geração esta quantia de memoria é insuficiente.