domingo, 29 de setembro de 2019

Sibos 2019: humanista vs tecnólogo (Innotribe) - 24 set 2019 - Tradução colaborativa legenda

                                                 

Clique na Imagem: Ampliar
Processo:
(1) extraí a Transcrição Automática (Youtube => ... => Abrir transcrição)
(2) copiei a Transcrição Automática em Editor de texto e formatei (inserindo espaço após tempo [nn:nn] e deletando quebra de linha
(3) inseri texto obtido em (2) na primeira coluna de uma planilha
(4) usei Google Tradutor (4 minutos por vez: limite de 5.000 caracteres) para gerar a segunda coluna da planilha
(5) copiei resultado nesta publicação de Blog
(6) solicito, em Mídias Sociais, contribuições com revisões da “tradução bruta” => um comentários por trecho e respostas ao comentário de cada trecho revisado (sugestões de melhoria da revisão sugerida no comentário)

Vamos colaborar para disponibilizar as informações, em Português, para quem não entende Inglês?


(Ver outra iniciativa similar em:  Tradução Colaborativa do livro: Os Robôs Vão Roubar o Teu Emprego, Mas Tudo Bem   http://robosvaoroubarteuempregomasok.blogspot.com/2014/12/indice.html?view=sidebar )



Sibos 2019: Humanist vs technologist (Innotribe) - 24 Sept 2019

Our world is entering a period of truly transformative change. Gerd Leonhard, CEO of The Futures Agency, and Brad Templeton, one the world's experts in self-driving cars, discuss how humanity will change more in the next 20 years than the previous 300.



Sibos 2019: humanista vs tecnólogo (Innotribe) - 24 set 2019

Nosso mundo está entrando em um período de mudanças verdadeiramente transformadoras. Gerd Leonhard, CEO da The Futures Agency, e Brad Templeton, um dos especialistas mundiais em carros autônomos, discutem como a humanidade mudará mais nos próximos 20 anos do que nos 300 anteriores.

00:07 good morning

00:07 bom dia
00:09 with Morgan mudra selamat pagi this is 00:09 com Morgan mudra selamat pagi este é
00:15 our external brain it's our second brain 00:15 nosso cérebro externo é o nosso segundo cérebro
00:19 and for some of our kids is the first 00:19 e para alguns dos nossos filhos é o primeiro
00:22 brain now this is going to move here and 00:22 cérebro agora isso vai passar aqui e
00:25 then it's going to move here and then if 00:25 então ele vai se mover aqui e então se
00:29 you know musk has its way it's going to 00:29 você sabe que o almíscar tem o seu caminho
00:32 move here this machine will be million 00:32 mover aqui esta máquina será milhões
00:35 times as powerful as it is today in ten 00:35 vezes mais poderoso do que é hoje em dez
00:38 years and the battery will last six 00:38 anos e a bateria durará seis
00:41 weeks and we'll have nine billion people 00:41 semanas e teremos nove bilhões de pessoas
00:45 on the internet in 2030 the numbers are 00:45 na internet em 2030, os números são
00:48 staggering so I'm going to talk to you 00:48 impressionante, então eu vou falar com você
00:49 about what technology means today where 00:49 sobre o que a tecnologia significa hoje onde
00:51 things are going and I always like to 00:51 as coisas estão indo e eu sempre gosto de
00:53 say technology is going to change more 00:53 dizem que a tecnologia vai mudar mais
00:55 in the next 20 years than the previous 00:55 nos próximos 20 anos do que no anterior
00:58 300 years I know it sounds crazy no 00:58 300 anos eu sei que parece loucura não
01:01 Industrial Revolution World War 2 the 01:01 Revolução Industrial Segunda Guerra Mundial
01:02 atomic bomb but now technology is 01:02 bomba atômica, mas agora a tecnologia é
01:06 changing us genomic engineering changing 01:06 nos mudando engenharia genômica mudando
01:09 the weather right 01:09 o tempo certo
01:11 artificial intelligence thinking 01:11 pensamento de inteligência artificial
01:13 machines that's quite different than the 01:13 máquinas que são bem diferentes das
01:15 steam engine or the railway so we're 01:15 motor a vapor ou a ferrovia, então estamos
01:21 moving into a world where this is the 01:21 movendo-se para um mundo onde este é o
01:22 new normal humans talking to machines 01:22 novos humanos normais conversando com máquinas
01:25 machines overlapping in our tasks 01:25 máquinas sobrepostas em nossas tarefas
01:28 machines telling us what to do machines 01:28 máquinas nos dizendo o que fazer máquinas
01:31 running our elections just kidding out 01:31 executando nossas eleições apenas brincando
01:33 of different time but the question is 01:33 de horário diferente, mas a questão é
01:36 how far do we want to go with this I 01:36 até onde queremos ir com isso eu
01:39 mean if you can't be superhuman would 01:39 significa que se você não pode ser sobre-humano faria
01:41 you not want to be superhuman 01:41 você não quer ser sobre-humano
01:43 I mean I'm German but I spent 17 years 01:43 Quero dizer, sou alemão, mas passei 17 anos
01:46 in the US and the answer is pretty clear 01:46 nos EUA e a resposta é bastante clara
01:49 for all the people yes I can be like 01:49 para todas as pessoas sim, eu posso ser como
01:50 becoming like God so to speak yeah if I 01:50 se tornando como Deus, por assim dizer, sim, se eu
01:53 could be superhuman why not and guess 01:53 poderia ser sobre-humano, por que não e acho
01:55 what it will make a lot of money to be 01:55 o que vai dar muito dinheiro para ser
01:58 superhuman I mean it's clear you're 01:58 sobre-humano Quero dizer, é claro que você é
02:00 gonna be have an advantage so who 02:00 vai ter uma vantagem então quem
02:02 decides what is the right thing to do 02:02 decide qual é a coisa certa a fazer
02:04 we're living in a world of algorithms an 02:04 estamos vivendo em um mundo de algoritmos e
02:07 algorithmic society that's money is 02:07 sociedade algorítmica que é dinheiro é
02:10 going digital 02:10 indo digital
02:11 algorithm society living in a world 02:11 sociedade de algoritmos que vive em um mundo
02:14 where machines can do some of the 02:14 onde as máquinas podem executar algumas das
02:15 thinking where the data economy is king 02:15 pensando onde a economia de dados é rei
02:19 right some people call that the 02:19 certo, algumas pessoas chamam isso de
02:21 surveillance economy and imagine when 02:21 economia de vigilância e imagine quando
02:24 money goes digital we're going to have 02:24 o dinheiro se torna digital, vamos ter
02:25 even more of this and then there's the 02:25 ainda mais disso e depois há o
02:28 things that on the other side I call 02:28 coisas que do outro lado eu chamo
02:30 them the N drawer rhythms in my book the 02:30 eles os ritmos gaveta N no meu livro o
02:33 human things when we talk about 02:33 coisas humanas quando falamos sobre
02:35 intelligence with humans we're not 02:35 inteligência com seres humanos não estamos
02:37 talking about processing power we're 02:37 falando sobre poder de processamento, estamos
02:40 talking about emotional intelligence 02:40 falando sobre inteligência emocional
02:42 social intelligence did you know that 02:42 inteligência social você sabia que
02:45 the research has shown that emotion 02:45 a pesquisa mostrou que a emoção
02:47 intelligence is mostly embodied by women 02:47 a inteligência é incorporada principalmente por mulheres
02:50 today in a much larger way than men I 02:50 hoje de uma maneira muito maior do que os homens que eu
02:54 think Jack Ma said you know that's our 02:54 acho que Jack Ma disse que você sabe que é o nosso
02:56 future is to get the EQ and 02:56 futuro é obter o equalizador e
03:00 psychologists have said that humans have 03:00 psicólogos disseram que os humanos têm
03:02 about ten different kinds of 03:02 cerca de dez tipos diferentes de
03:03 intelligence and what kind of 03:03 inteligência e que tipo de
03:05 intelligence doesn't machine have we'll 03:05 inteligência não maquina temos nós
03:07 talk about that later our discussion the 03:07 falar sobre isso mais tarde nossa discussão a
03:09 machine has a binary intelligence zeros 03:09 máquina tem zeros de inteligência binária
03:12 and ones data figures logic this is our 03:12 e uns dados figuras lógica esta é a nossa
03:17 intelligence I don't want a machine that 03:17 inteligência Eu não quero uma máquina que
03:21 does this and why do we need it if we 03:21 faz isso e por que precisamos se nós
03:24 are very good at this compassion 03:24 são muito bons nessa compaixão
03:26 emotions creativity machines are not so 03:26 emoções máquinas de criatividade não são tão
03:31 here's the thing of course you know that 03:31 aqui está o curso, você sabe disso
03:33 basically we replacing humanity makes a 03:33 basicamente, substituir a humanidade faz uma
03:36 lot of money look at the profits of big 03:36 muito dinheiro olhar para os lucros de grandes
03:39 tech the most powerful companies in the 03:39 tecnologia das empresas mais poderosas do
03:41 world today are not banks oil companies 03:41 mundo hoje não são bancos empresas de petróleo
03:44 but they're tech companies and they're 03:44 mas são empresas de tecnologia e estão
03:48 also the most 03:48 também o mais
03:49 unregulated right incidentally so very 03:49 certo não regulamentado aliás muito
03:53 powerful what's happening here I mean 03:53 poderoso o que está acontecendo aqui, quero dizer
03:55 the stats are really quite clear we have 03:55 as estatísticas são realmente muito claras, temos
03:57 algorithms technology and then we have 03:57 tecnologia de algoritmos e então temos
03:58 and rhythms purpose curiosity passion 03:58 e ritmos propósito curiosidade paixão
04:01 the imagination that's what what defines 04:01 a imaginação é isso que define
04:04 us and what is the overlap will we still 04:04 nós e qual é a sobreposição ainda vamos
04:07 have passion or purpose when things are 04:07 tem paixão ou propósito quando as coisas estão
04:10 run by a machine I always say you know 04:10 executado por uma máquina Eu sempre digo que você sabe
04:13 relationships aren't downloads and 04:13 relacionamentos não são downloads e
04:15 Happiness is not on a screen I mean it's 04:15 A felicidade não está na tela, quero dizer que é
04:19 funny these days people have more 04:19 engraçado hoje em dia as pessoas têm mais
04:21 relationships with their screens and 04:21 relacionamentos com suas telas e
04:23 they have with people 04:23 eles têm com as pessoas
04:24 I mean I'm sure you know what I'm 04:24 Quero dizer, tenho certeza que você sabe o que eu sou
04:27 talking about here so I like to you know 04:27 falando aqui, então eu gosto de você saber
04:30 as a summary saying for this part of my 04:30 como um resumo dizendo para esta parte do meu
04:32 presentation I think societies are 04:32 apresentação Acho que as sociedades são
04:34 driven by that tech and their science 04:34 impulsionado por essa tecnologia e sua ciência
04:36 but defined by humanity imagine a 04:36, mas definido pela humanidade, imagine um
04:39 society that is driven by technology but 04:39 sociedade que é impulsionada pela tecnologia, mas
04:42 has no humanity in the sense of ethics 04:42 não tem humanidade no sentido de ética
04:43 values ideas what we want right that 04:43 valoriza idéias o que queremos certo
04:48 would be extremely scary so there's 04:48 seria extremamente assustador, então não há
04:51 something we have to think about which 04:51 algo que temos que pensar sobre qual
04:52 way we're going and many people are 04:52 maneira que estamos indo e muitas pessoas estão
04:53 arguing that humans are essentially 04:53 argumentando que os seres humanos são essencialmente
04:55 technology we can take a vote on this 04:55 tecnologia, podemos votar neste
04:58 later that you know being German I don't 04:58 depois que você sabe ser alemão eu não
05:01 believe that I live in Switzerland now 05:01 acredito que moro na Suíça agora
05:03 same difference but in the u.s. I keep 05:03 mesma diferença, mas nos EUA eu guardo
05:06 hearing this argument organisms our 05:06 ouvir esse argumento organiza nossa
05:08 algorithms we are fancy computers so in 05:08 algoritmos somos computadores sofisticados, então em
05:14 that case convergence of the two doesn't 05:14 Nesse caso, a convergência dos dois não
05:15 really touch us a lot of people say that 05:15 realmente nos tocam muitas pessoas dizem isso
05:17 this is basically what's going to happen 05:17 isso é basicamente o que vai acontecer
05:19 because computers will take over our 05:19 porque os computadores assumirão o nosso
05:22 work they will take over our government 05:22 trabalho eles vão assumir o nosso governo
05:23 they'll run our climate change efforts 05:23 eles farão nossos esforços de mudança climática
05:26 and we become useless I don't know how 05:26 e nos tornamos inúteis, não sei como
05:30 you feel about this 05:30 você se sente sobre isso
05:31 I don't think humans are gonna be 05:31 Eu não acho que os humanos serão
05:33 useless if you're looking at this chart 05:33 inútil se você estiver olhando para este gráfico
05:34 you can clearly see what's happening 05:34 você pode ver claramente o que está acontecendo
05:36 with jobs and AI yes many drops will go 05:36 com empregos e AI sim muitas gotas vão
05:39 away because of technology many other 05:39 de distância por causa da tecnologia muitos outros
05:43 jobs will be boosted for example all the 05:43 empregos serão impulsionados, por exemplo, todos os
05:46 jobs in healthcare in scientific and 05:46 empregos na área da saúde em áreas científicas e
05:48 communications and what are those jobs 05:48 comunicações e quais são esses trabalhos
05:50 right ask yourself what those jobs are 05:50 direito, pergunte a si mesmo quais são esses empregos
05:52 they're human only jobs they're jobs 05:52 eles são humanos apenas empregos são empregos
05:56 that we do because we're human look at 05:56 que fazemos porque somos humanos
05:58 the Bern a zoom and you can clearly see 05:58 o Berna um zoom e você pode ver claramente
05:59 these jobs are not entirely just logic 05:59 esses trabalhos não são inteiramente apenas lógicos
06:04 they're about us as people so important 06:04 eles são sobre nós como pessoas tão importantes
06:07 to consider what's happening here the 06:07 para considerar o que está acontecendo aqui no
06:09 percentage of human only work that's 06:09 porcentagem de trabalho humano apenas que é
06:12 where all of us are going human only 06:12 onde todos nós estamos indo apenas humanos
06:14 work means we give the work that can't 06:14 trabalho significa que damos o trabalho que não pode
06:16 be done by machines which is 06:16 ser feito por máquinas que é
06:18 increasingly more we give that to the 06:18 cada vez mais, damos isso ao
06:19 robots and the software and we move up 06:19 robôs e o software e subimos
06:23 the food chain that will not be an easy 06:23 a cadeia alimentar que não será fácil
06:26 transformation for a taxi driver or cold 06:26 transformação para um motorista de táxi ou resfriado
06:28 central leader again as Jack Ma has said 06:28 líder central novamente, como Jack Ma disse
06:31 is the balance between EQ and IQ if you 06:31 é o equilíbrio entre EQ e QI se você
06:34 want to have a job in the future 06:34 quer ter um emprego no futuro
06:35 you gotta boost your 06:35 você tem que aumentar sua
06:37 your emotional quotient assuming that 06:37 seu quociente emocional assumindo que
06:40 you already have an IQ that's why you're 06:40 você já tem um QI é por isso que você está
06:42 here 06:42 aqui
06:43 Pat Tina this is something that is quite 06:43 Pat Tina isso é algo que é bastante
06:45 clear that's gonna happen oh no our kids 06:45 claro que isso vai acontecer oh não, nossos filhos
06:47 you think about our kids what do they 06:47 você pensa sobre nossos filhos, o que eles
06:50 really have to learn in the future they 06:50 realmente tem que aprender no futuro eles
06:52 have to be entrepreneurs they have to 06:52 tem que ser empreendedores, eles têm que
06:54 invent they have to understand people 06:54 inventar que eles têm que entender as pessoas
06:56 they have to know how to have feelings 06:56 eles precisam saber como ter sentimentos
06:58 they have to beat the machines not by 06:58 eles têm que bater nas máquinas não por
07:00 being faster than a machine that's 07:00 sendo mais rápido que uma máquina que é
07:02 ridiculous right in 10 years we can't 07:02 certo ridículo em 10 anos não podemos
07:04 beat the machines for anything 07:04 bater as máquinas para qualquer coisa
07:06 technology is coming we're not going to 07:06 a tecnologia está chegando, não vamos
07:08 go back on it and put it back in the box 07:08 volte a colocá-lo na caixa
07:10 this is the most important part when 07:10 esta é a parte mais importante quando
07:13 talk about technology in humanity it's 07:13 falar sobre tecnologia na humanidade é
07:14 not to reject technology I mean the idea 07:14 para não rejeitar a tecnologia, quero dizer a idéia
07:18 of saying that we have a risk so we're 07:18 de dizer que temos um risco, então estamos
07:20 not going to do this is odd right but 07:20 não vai fazer isso é estranho certo, mas
07:23 then so is the idea of saying well 07:23 então também é a ideia de dizer bem
07:25 anything we can do we should do so let's 07:25 tudo o que podemos fazer, devemos fazê-lo, vamos
07:27 all put holes into our skull and connect 07:27 todos fazem buracos no nosso crânio e conectam
07:29 to the internet yeah it's also bad idea 07:29 para a internet sim, também é uma má ideia
07:33 so it's about the balance and you know 07:33 então é sobre o equilíbrio e você sabe
07:35 who decides the balance that'll be the 07:35 quem decide o saldo que será o
07:38 biggest challenge 07:38 maior desafio
07:39 Automation I mean the financial industry 07:39 Automação, quero dizer o setor financeiro
07:42 you know that many of our jobs are going 07:42 você sabe que muitos dos nossos trabalhos estão indo
07:44 to be automated because machines are 07:44 para ser automatizado porque as máquinas são
07:46 learning them christine lagarde said 07:46 aprendendo-os disse christine lagarde
07:49 automation is good for growth but bad 07:49 automação é boa para o crescimento, mas ruim
07:52 for quality and that's a fact what we're 07:52 de qualidade e isso é fato.
07:55 going to have increasingly automation 07:55 vai ter cada vez mais automação
07:57 call centers bookkeepers accounting all 07:57 contadores de call centers contabilizando todos
07:59 the thing you know half of KPMG 07:59 o que você conhece metade da KPMG
08:02 automated maybe so that's a question ID 08:02 automatizado, talvez por isso é um ID de pergunta
08:07 what did we do about this and and who's 08:07 o que fizemos sobre isso e quem é
08:08 going to be in charge of equality so in 08:08 vai se encarregar da igualdade, então em
08:12 this world you know there's also the 08:12 neste mundo você sabe que há também o
08:13 side effect of what technology does 08:13 efeito colateral do que a tecnologia faz
08:14 which is to make us dependent on it and 08:14, que é para nos tornar dependentes e
08:18 I think when you think of this image 08:18 Eu acho que quando você pensa nessa imagem
08:20 what do you think of right what do you 08:20 o que você acha certo o que você
08:23 think of social media we're in this 08:23 pense nas mídias sociais, estamos nessa
08:27 world to where we're being pulled by 08:27 mundo para onde estamos sendo puxados por
08:28 strings we don't even know they exist 08:28 cordas que nem sabemos que existem
08:30 when to which I like to say too much of 08:30 quando a que eu gosto de dizer muito
08:32 a good thing can be a very bad thing 08:32 uma coisa boa pode ser uma coisa muito ruim
08:34 like drugs do we not allow alcohol 08:34 como drogas, não permitimos álcool
08:38 because people may drink too much yeah 08:38 porque as pessoas podem beber demais, sim
08:40 we have restrictions right but we allow 08:40 temos restrições certas, mas permitimos
08:42 it we have coffee we have cigarettes we 08:42 temos café temos cigarros nós
08:45 have pipes you know whatever you can 08:45 tem tubos, você sabe o que pode
08:47 think of you know we're even legalizing 08:47 acho que você sabe que estamos legalizando
08:49 marijuana now 08:49 maconha agora
08:50 now too much of a good thing is a very 08:50 agora muita coisa boa é muito
08:52 bad thing because when you do too much 08:52 coisa ruim porque quando você faz muito
08:54 you'll end up in a bad place so now let 08:54 você vai acabar em um lugar ruim, então agora vamos
08:59 me talk about this really important 08:59 me falar sobre isso realmente importante
09:00 thing when it's about technology we're 09:00 coisa quando se trata de tecnologia estamos
09:02 in a we're living in a world where 09:02 em que estamos vivendo em um mundo onde
09:03 technology is giving us amazing deals on 09:03 a tecnologia está nos dando ofertas incríveis em
09:05 convenience on content on communication 09:05 conveniência no conteúdo da comunicação
09:08 life is better because of technology and 09:08 a vida é melhor por causa da tecnologia e
09:12 these companies here are the ones 09:12 essas empresas aqui são as únicas
09:15 furnishing it to a large degree at the 09:15 fornecê-lo em grande medida no
09:17 top eight in the world American and 09:17 entre os oito melhores do mundo americano e
09:19 Chinese but on the other end of the 09:19 Chinês, mas do outro lado do
09:23 fantastic magic offering we do have some 09:23 oferta mágica fantástica, temos alguns
09:26 issues right I call this the 09:26 questões certas eu chamo isso de
09:29 externalities right these externalities 09:29 externalidades certas essas externalidades
09:31 are they are as important as the 09:31 eles são tão importantes quanto os
09:33 externalities of oil and gas which is 09:33 externalidades de petróleo e gás que são
09:35 climate change now we have tax avoidance 09:35 mudança climática agora temos evasão fiscal
09:38 we have dehumanization manipulation we 09:38 temos manipulação desumanização nós
09:41 have to address the externalities of 09:41 tem que abordar as externalidades de
09:43 Technology how do we do that well here's 09:43 Tecnologia, como fazemos isso bem, aqui está
09:48 a suggestion we should do this when we 09:48 uma sugestão que devemos fazer isso quando
09:51 should have a group of people in every 09:51 deve ter um grupo de pessoas em todos os
09:54 city in every industry and in every 09:54 cidade em todos os setores e em todos os
09:57 country and globally or be a lot of 09:57 país e globalmente ou ser um monte de
09:59 people call this a digital ethics 09:59 as pessoas chamam isso de ética digital
10:01 counsel people whose job it is to think 10:01 aconselha as pessoas cujo trabalho é pensar
10:05 about what the consequences of 10:05 sobre quais são as consequências de
10:07 technologies are and how we deal with 10:07 tecnologias são e como lidamos com
10:09 them I'm not talking about politicians 10:09 eles não estou falando de políticos
10:11 or see I was here right I'm talking 10:11 ou veja, eu estava aqui certo, eu estou falando
10:12 about 10:12 sobre
10:13 thinkers and talking about people that 10:13 pensadores e falando sobre pessoas que
10:15 would be on the level where they can be 10:15 seria no nível em que eles podem ser
10:16 like you know Socrates kind of thing and 10:16 como você sabe o tipo de coisa de Sócrates e
10:19 this is happening in Singapore it's 10:19 isso está acontecendo em Cingapura é
10:21 happening in Denmark it's happening a 10:21 acontecendo na Dinamarca está acontecendo um
10:23 different industry is happening at 10:23 indústria diferente está acontecendo em
10:24 Microsoft is happening at Google it's a 10:24 A Microsoft está acontecendo no Google, é uma
10:26 very very important discussion digital 10:26 discussão muito, muito importante digital
10:28 ethics is known the difference between 10:28 ética é conhecida a diferença entre
10:31 what technology enables you to do and 10:31 que tecnologia permite que você faça e
10:34 what is the right thing to do now I 10:34 qual é a coisa certa a fazer agora eu
10:38 grant you that is a difficult discussion 10:38 garante que é uma discussão difícil
10:41 of what is the right thing to do right I 10:41 do que é a coisa certa a fazer certo I
10:43 mean who decides we'll talk about in the 10:43 significa quem decide que falaremos no
10:45 panel I'm sure we'll solve it very 10:45 painel Tenho certeza que vamos resolver isso muito
10:46 quickly here's a short example the new 10:46 rapidamente, aqui está um pequeno exemplo do novo
10:49 cigarettes it's not good for you it's 10:49 cigarros não é bom para você, é
10:51 addictive you don't know who's trying to 10:51 viciante você não sabe quem está tentando
10:53 convince you to use it or misuse it the 10:53 convencê-lo a usá-lo ou usá-lo
10:56 government has to step in and regulate 10:56 governo tem que intervir e regular
10:58 it and Facebook has proven that to us 10:58 e o Facebook provou isso para nós
11:00 and since I said it over like nine 11:00 e desde que eu disse mais de nove
11:02 months ago over and over and over again 11:02 meses atrás e outra e outra vez
11:04 that they need to be regulated because 11:04 que eles precisam ser regulamentados porque
11:05 they're not self-regulating Marc Benioff 11:05 eles não são auto-reguladores Marc Benioff
11:08 from Salesforce right they need to 11:08 da Salesforce certo, eles precisam
11:10 regulate be regulated because they're 11:10 regular ser regulamentado porque eles são
11:11 not self-regulating think about that for 11:11 não se auto-regulamenta pensar nisso por
11:13 a second 11:13 um segundo
11:14 I mean you're in the banking business 11:14 Quero dizer que você está no negócio bancário
11:15 I've heavily regulated do we need this 11:15 Eu tenho regulado fortemente, precisamos disso
11:18 for these platforms absolutely and that 11:18 para essas plataformas absolutamente e que
11:21 discussion is raging because we don't 11:21 discussão está sendo travada porque nós não
11:23 want to end up here right you know we 11:23 quer acabar aqui bem, você sabe que
11:25 want to end up in a place where ia I can 11:25 quer acabar em um lugar onde eu posso
11:27 help us build the value not become the 11:27 nos ajudar a construir o valor e não se tornar o
11:30 panopticon the global panopticon and 11:30 panóptico o panóptico global e
11:32 here's the key question in that who is 11:32 aqui está a questão-chave em quem é
11:34 Mission Control right who controls what 11:34 Controle da Missão certo quem controla o que
11:37 happens right now the sector the top 20 11:37 acontece agora o setor entre os 20 melhores
11:40 companies in the world are largely 11:40 empresas no mundo são amplamente
11:42 uncontrolled I mean more more 11:42 descontrolado Quero dizer mais mais
11:46 uncontrolled than any other industry 11:46 descontrolado do que qualquer outra indústria
11:47 ever was and this is a very very big 11:47 já foi e este é um muito, muito grande
11:49 issue so going forward here this is one Questão 11:49 então daqui para frente aqui este é um
11:51 of the key issues that we're talking 11:51 dos principais problemas que estamos falando
11:52 about in which way are we going to go 11:52 sobre em que direção vamos
11:54 with this you know we have sort of the 11:54 com isso, você sabe que temos uma espécie de
11:55 externalities of climate change and then 11:55 externalidades da mudança climática e depois
11:59 we have the second pollution which is 11:59 temos a segunda poluição que é
12:02 digital our cause the digital pollution 12:02 digital nossa causa a poluição digital
12:05 it's it's a way of you know messing up 12:05 é uma maneira de você saber estragar tudo
12:07 our thinking and thinking about stuff 12:07 nosso pensamento e pensando em coisas
12:09 that we should rather do differently 12:09 que deveríamos fazer diferente
12:10 best example really is Facebook in their 12:10 melhor exemplo realmente é o Facebook em sua
12:13 efforts of undermining democracy and 12:13 esforços para minar a democracia e
12:17 it's funny you can't say that they did 12:17 é engraçado que você não pode dizer que eles fizeram
12:19 it by purpose or that they are criminal 12:19 por propósito ou por serem criminosos
12:22 you sign the User Agreement 12:22 você assina o Contrato do Usuário
12:24 yeah but it's unethical and that is the 12:24 sim, mas é antiético e esse é o
12:29 problem of course with technology when 12:29 problema é claro com a tecnologia quando
12:31 we think about what this means and you 12:31 pensamos sobre o que isso significa e você
12:33 know how they are working on keeping us 12:33 sabe como eles estão trabalhando para nos manter
12:35 addicted to the feet of technology is 12:35 viciado nos pés da tecnologia é
12:37 that unethical I think it is I don't 12:37 que antiético eu acho que é que eu não
12:40 know what your view is on this I'm I'm 12:40 saber qual é a sua opinião sobre isso eu sou eu sou
12:42 certain none of you do any of those 12:42 certo de que nenhum de vocês faz nenhum desses
12:44 things anyway so AI at same topic in 12:44 as coisas de qualquer maneira, então AI no mesmo tópico em
12:48 principle is a great idea I call this 12:48 princípio é uma ótima idéia que eu chamo de
12:50 intelligent assistance ia that's what 12:50 assistência inteligente ia é isso que
12:54 you know in banking financial that's 98% 12:54 você sabe no setor bancário que é 98%
12:57 of yours they're just fancy software 12:57 de vocês são apenas softwares sofisticados
12:58 right these machines are not thinking 12:58 certo essas máquinas não estão pensando
13:01 they're not learning like we do right do 13:01 eles não estão aprendendo como fazemos certo
13:04 you think like machines how does the 13:04 você pensa como máquinas, como é que o
13:06 Machine think zero one one zero zero one 13:06 A máquina pensa zero um um zero zero um
13:08 binary you know it basically if this 13:08 binário você sabe basicamente se isso
13:10 then that right they can learn 13:10 então esse direito eles podem aprender
13:12 yes but not like us I mean a human sees 13:12 sim, mas não como nós, quero dizer, um humano vê
13:16 the world like this machine sees the 13:16 o mundo como esta máquina vê o
13:19 world like this but has no limits on 13:19 mundo como este, mas não tem limites para
13:22 seeing it right there's quite a 13:22 vendo certo, há bastante
13:24 different level of things and I think in 13:24 nível diferente de coisas e penso em
13:26 this world we should be very careful 13:26 neste mundo devemos ter muito cuidado
13:27 what we wish for intelligent assistance 13:27 o que desejamos para assistência inteligente
13:30 artificial intelligence yes but at the 13:30 inteligência artificial sim, mas no
13:32 end 13:32 fim
13:33 asi artificial general intelligence AGI 13:33 asi inteligência artificial geral AGI
13:40 probably not a good idea I think we need 13:40 provavelmente não é uma boa ideia, acho que precisamos
13:42 to really figure out how we're going to 13:42 para realmente descobrir como vamos
13:45 discuss what we do here I think we're 13:45 discutir o que fazemos aqui, acho que estamos
13:47 gonna see a moratorium on this just like 13:47 vai ver uma moratória sobre isso, assim como
13:49 we have on nuclear weapons and I will 13:49 temos armas nucleares e eu vou
13:54 not be an easy task 13:54 não é uma tarefa fácil
13:55 just like nuclear weapons so let me wrap 13:55 como armas nucleares, então deixe-me embrulhar
13:58 up and I think we're moving into a world 13:58 e acho que estamos nos mudando para um mundo
13:59 that's I call this hell then yeah it 13:59 é isso que eu chamo de inferno, então sim
14:02 could be heaven it could be hell and 14:02 poderia ser o céu, poderia ser o inferno e
14:05 this has nothing to do with technology 14:05 isso não tem nada a ver com tecnologia
14:08 or Silicon Valley or China it has to do 14:08 ou Vale do Silício ou China tem que fazer
14:11 with how we govern technology and 14:11 com a forma como governamos a tecnologia e
14:15 whether technology is used to dehumanize 14:15 se a tecnologia é usada para desumanizar
14:18 or to reorganize it's not the purpose of 14:18 ou para reorganizar não é o objetivo de
14:21 Technology to decide technology is 14:21 Tecnologia para decidir que tecnologia é
14:23 neutral until we use it and it's not 14:23 neutro até usá-lo e não é
14:27 good or bad we make a good Abed and we 14:27 bom ou ruim, fazemos um bom Abed e nós
14:29 have to think about how we govern 14:29 tem que pensar em como governamos
14:31 technology not just like government but 14:31 tecnologia não apenas como o governo, mas
14:33 also in terms of our own use and which 14:33 também em termos de uso próprio e que
14:35 way we're going with this so this is 14:35 maneira que vamos com isso, então este é
14:38 kind of quite clear you know in this 14:38 bem claro, você sabe disso
14:40 world between the good and the bad of 14:40 mundo entre o bem e o mal de
14:42 Technology what are you going to do we 14:42 Tecnologia o que você vai fazer, nós
14:46 say well don't touch it 14:46 diga bem, não toque
14:48 yeah you're gonna have to ask a 14:48 sim, você vai ter que pedir uma
14:50 different question the question is not 14:50 pergunta diferente a questão não é
14:52 if we can do something or how we do it 14:52 se podemos fazer algo ou como fazemos
14:55 or how much money it makes that question 14:55 ou quanto dinheiro faz essa pergunta
14:58 is getting to be an old question this is 14:58 está começando a ser uma pergunta antiga, esta é
15:00 the only question why what's the purpose 15:00 a única pergunta por que motivo
15:05 when we have digital money and we will 15:05 quando temos dinheiro digital e vamos
15:08 why you know what's the purpose and who 15:08 por que você sabe qual é o propósito e quem
15:11 can we trust 15:11 podemos confiar
15:12 would you trust the social media company 15:12 você confiaria na empresa de mídia social
15:14 with your money that social media 15:14 com seu dinheiro que as mídias sociais
15:17 company yeah nice idea but you know I 15:17 empresa sim boa ideia, mas você sabe que eu
15:20 don't have to trust I don't know about 15:20 não tenho que confiar, eu não sei
15:22 you I think it's a very very big 15:22 você, eu acho que é muito, muito grande
15:23 discussion there and this 15:23 discussão lá e isso
15:25 world everything that we do is moving to 15:25 mundo, tudo o que fazemos é mudar para
15:28 the cloud 15:28 a nuvem
15:29 everything healthcare records music 15:29 tudo de saúde grava música
15:31 films television books banking insurance 15:31 filmes livros de televisão seguros bancários
15:34 transportation cloud right if we don't 15:34 nuvem de transporte certo, se não o fizermos
15:38 put this in the middle human purpose 15:38 colocar isso no meio propósito humano
15:43 that's not gonna be a good future we 15:43 não será um bom futuro para nós
15:46 have to make sure that the companies 15:46 tem que ter certeza de que as empresas
15:47 that do this adhere to a standard right 15:47 que fazem isso seguir um direito padrão
15:50 they actually are doing this and what I 15:50 eles realmente estão fazendo isso e o que eu
15:51 call the the the three future principles 15:51 chamar os três princípios futuros
15:54 holistic business models the circular 15:54 modelos de negócios holísticos a circular
15:56 economy and humans at the center I will 15:56 economia e seres humanos no centro eu vou
16:00 not do business with any bank that 16:00 não negocia com nenhum banco que
16:02 doesn't have those three parameters and 16:02 não tem esses três parâmetros e
16:05 that will be the new normal also on the 16:05 esse será o novo normal também no
16:07 stock market in the very near future so 16:07 mercado de ações em um futuro muito próximo, então
16:09 I'm going to wrap up saying as I say in 16:09 Vou terminar dizendo como digo em
16:12 my book 16:12 meu livro
16:13 the biggest danger today is not that 16:13 o maior perigo hoje não é esse
16:15 machines will takeover and kill us there 16:15 máquinas vão dominar e nos matar lá
16:18 is a danger for that it's pretty far 16:18 é um perigo, pois é bem longe
16:21 away right in overall terms you know 50 16:21 de distância, em termos gerais, você sabe 50
16:24 years maybe that is possible today the 16:24 anos, talvez isso seja possível hoje em dia
16:26 biggest problem is that we become like 16:26 O maior problema é que nos tornamos
16:28 the machines we look at the customer as 16:28 as máquinas que olhamos para o cliente como
16:31 if there were an algorithm we're too 16:31 se houvesse um algoritmo, também estamos
16:33 lazy to do our own things we forget who 16:33 com preguiça de fazer nossas próprias coisas esquecemos quem
16:36 we are we stop listening and we 16:36 nós somos nós paramos de ouvir e nós
16:40 basically become technology so my call 16:40 basicamente se tornam tecnologia, então minha ligação
16:44 to you is say let's embrace technology 16:44 para você é dizer, vamos abraçar a tecnologia
16:46 and use it for all the stuff that it's 16:46 e use-o para todas as coisas que é
16:47 good for but not become technology and I 16:47 bom para, mas não se tornar tecnologia e eu
16:52 think this is also where Europe and the 16:52 acho que também é aqui que a Europa e os
16:54 UK has a leg up so we'll discuss it and 16:54 Reino Unido tem uma vantagem, então discutiremos isso e
16:58 the panel thanks very much for listening 16:58 o painel muito obrigado por ouvir
16:59 thank you 16:59 obrigado
17:05 good morning well GERD told me he was 17:05 bom dia, bem, a DRGE me disse que estava
17:08 going to do this event and he wanted to 17:08 vai fazer este evento e ele queria
17:09 represent the side of humanity so he 17:09 representam o lado da humanidade, então ele
17:12 said would you come along and represent 17:12 disse que você viria e representaria
17:13 the robots for me and fight against 17:13 os robôs para mim e lutar contra
17:16 humanity and of course I'm not going to 17:16 humanidade e, claro, eu não vou
17:17 do that I am in favor of humanity I'm a 17:17 faça isso que sou a favor da humanidade sou um
17:19 big fan of it but I want to tell you 17:19 grande fã disso, mas eu quero lhe dizer
17:23 that the predictions that we've heard 17:23 que as previsões que ouvimos
17:24 well Gerdes been reincarnated from some 17:24 bem Gerdes reencarnou de alguns
17:27 earlier eras because his message is not 17:27 eras anteriores porque sua mensagem não é
17:30 a new one the world we live in is 17:30 um novo mundo em que vivemos é
17:32 changing and is new in every way but at 17:32 mudando e é novo em todos os aspectos, mas às
17:34 the same time this question is very old 17:34 ao mesmo tempo, essa pergunta é muito antiga
17:36 and this question of whether we haven't 17:36 e esta questão de saber se não temos
17:38 held well I'm sure they debated it 17:38 realizada bem, tenho certeza que eles debateram
17:40 around these stones saying this is going 17:40 em torno dessas pedras dizendo que isso vai
17:43 to give us a calendar and we're gonna 17:43 para nos dar um calendário e vamos
17:45 have to do things on certain dates and 17:45 tem que fazer coisas em certas datas e
17:47 we're gonna you know it's gonna tell us 17:47 nós vamos saber que isso vai nos dizer
17:48 when to have our big parties and I think 17:48 quando ter nossas grandes festas e acho
17:50 that's gonna change what it means to be 17:50 isso vai mudar o que significa ser
17:52 human but of course we gotten used to 17:52 humano, mas é claro que nos acostumamos
17:55 the calendars we've moved forward to 17:55 os calendários que avançamos para
17:57 discuss this here in this city of 17:57 discuta isso aqui nesta cidade de
18:00 slightly larger edifices that we stand 18:00 edifícios ligeiramente maiores que estamos
18:02 among nonetheless this debate goes back 18:02 entre, no entanto, este debate remonta
18:05 to the very earliest days this debate 18:05 até os primeiros dias deste debate
18:07 about heaven or hell is not a dichotomy 18:07 sobre o céu ou o inferno não é uma dicotomia
18:12 it isn't an escalator going one way or 18:12 não é uma escada rolante que vai para um lado ou
18:14 an escalator going up the reality is 18:14 uma escada rolante subindo a realidade é
18:16 we're going to see both heaven and hell 18:16 vamos ver o céu e o inferno
18:18 and we're going to try and make the best 18:18 e vamos tentar fazer o melhor
18:20 of it we're never going to get a 18:20, nunca teremos um
18:21 perfectly good world or a perfectly evil 18:21 mundo perfeitamente bom ou um perfeitamente mau
18:24 world now the first big decision that we 18:24 mundo agora a primeira grande decisão que nós
18:28 had to make when we had this debate was 18:28 teve que fazer quando tivemos esse debate foi
18:30 this big question of should we come down 18:30 esta grande questão de devemos descer
18:32 from the trees because if we come down 18:32 das árvores, porque se descermos
18:34 from the trees will we lose our monkey 18:34 das árvores vamos perder nosso macaco
18:37 nuts 18:37 nozes
18:37 night are we going to stop being monkeys 18:37 noite, vamos parar de ser macacos
18:41 are we going to to lose all the things 18:41 vamos perder todas as coisas
18:43 that we value that make us monkeys well 18:43 que valorizamos que nos tornam macacos bem
18:46 of course we did and we got humanity 18:46 é claro que fizemos e adquirimos humanidade
18:48 instead and we don't seem to regret the 18:48 e parece que não lamentamos o
18:50 decision although I occasionally do run Decisão 18:50, embora eu ocasionalmente corra
18:52 into people who do we also must have had 18:52 em pessoas que também devemos ter tido
18:55 this debate over fire now this is a 18:55 este debate sobre o fogo agora este é um
18:58 slightly more modern version of fire for 18:58 versão ligeiramente mais moderna do fogo para
18:59 those of you who've been to Burning Man 18:59 aqueles de vocês que estiveram no Burning Man
19:01 but once again we didn't know what was 19:01 mas mais uma vez não sabíamos o que era
19:04 happening we argued about it and we 19:04 acontecendo discutimos sobre isso e nós
19:07 ended up liking the result in the long 19:07 acabou gostando do resultado no longo
19:09 run I actually do hear people today who 19:09 correr Eu realmente ouço pessoas hoje que
19:13 debate whether agriculture was a good 19:13 debate se a agricultura foi uma boa
19:15 idea actually before agriculture as you 19:15 idéia realmente antes da agricultura como você
19:17 know we were hunt 19:17 sei que estávamos caçando
19:18 gatherers some people think that 19:18 coletores algumas pessoas pensam que
19:20 lifestyle was very idyllic and you 19:20 estilo de vida era muito idílico e você
19:22 didn't have as many warlords and you 19:22 não tinha tantos senhores da guerra e você
19:24 didn't have kings and all those other 19:24 não tinha reis e todos os outros
19:25 things but by and large agriculture 19:25 coisas, mas em geral agricultura
19:27 which has fed the world seems to have 19:27 que alimentou o mundo parece ter
19:29 been a pretty good decision and then the 19:29 foi uma decisão muito boa e, em seguida, o
19:32 Industrial Revolution began first in 19:32 A Revolução Industrial começou pela primeira vez em
19:34 textiles here in bath and then later 19:34 têxteis aqui no banho e depois
19:37 with industrial technology and iron also 19:37 com tecnologia industrial e ferro também
19:39 here in the United Kingdom and this is 19:39 aqui no Reino Unido e este é
19:42 the one we often debate the most and yet 19:42 o que muitas vezes debatemos mais e ainda
19:44 it's the reason we are all here so what 19:44 é a razão pela qual estamos todos aqui, então o que
19:48 do we do about this how do we answer 19:48 fazemos sobre isso, como respondemos
19:50 this question when when we're talking 19:50 esta pergunta quando quando estamos falando
19:51 about machines that think cars that 19:51 sobre máquinas que pensam em carros que
19:54 drive themselves robots that act as 19:54 dirigem-se robôs que agem como
19:57 people do or do things that people do 19:57 as pessoas fazem ou fazem coisas que as pessoas fazem
20:00 the answer is that we have a very 20:00 a resposta é que temos uma muito
20:04 difficult time telling the difference 20:04 hora difícil de dizer a diferença
20:05 between foresight and hindsight all of 20:05 entre previsão e retrospectiva todos
20:08 the arguments that were made about these 20:08 os argumentos que foram feitos sobre esses
20:11 other great decisions great 20:11 outras grandes decisões grandes
20:13 singularities of the past turned out to 20:13 singularidades do passado resultaram em
20:17 be wrong the people who said don't do it 20:17 estar errado as pessoas que disseram não fazê-lo
20:19 at least as far as I think most people 20:19 pelo menos tanto quanto eu acho que a maioria das pessoas
20:20 in this room would conclude turned out 20:20 nesta sala iria terminar acabou
20:22 to be wrong but we didn't know at the 20:22 estar errado, mas não sabíamos no
20:24 time how to decide we didn't know how to 20:24 tempo como decidir que não sabíamos como
20:26 decide what was wrong and what was right 20:26 decidir o que estava errado e o que estava certo
20:29 now the change of pace the pace of 20:29 agora a mudança de ritmo o ritmo de
20:32 change is obviously faster and 20:32 mudança é obviamente mais rápida e
20:34 accelerating today the chart that you 20:34 acelerando hoje o gráfico que você
20:36 see on the left is a chart of the price 20:36 veja à esquerda é um gráfico do preço
20:39 of computing per dollar and this chart 20:39 de computação por dólar e este gráfico
20:42 was put together by Ray Kurzweil and 20:42 foi montado por Ray Kurzweil e
20:43 Catherine Mirotic and this is an 20:43 Catherine Mirotic e este é um
20:46 exponential chart which means that each 20:46 gráfico exponencial, o que significa que cada
20:48 dot on the Left axis is 10 times bigger 20:48 ponto no eixo esquerdo é 10 vezes maior
20:51 than the dot before and they notice when 20:51 do que o ponto anterior e eles percebem quando
20:54 they built this chart that if you 20:54 eles construíram este gráfico que se você
20:56 plotted it back all the way to the 20:56 traçou de volta todo o caminho até o
20:57 beginning of the 20th century in 1900 it 20:57 início do século 20 em 1900,
21:00 stayed on an exponential curve for now a 21:00 ficou em uma curva exponencial por enquanto um
21:02 hundred more than 120 years you don't 21:02 cem mais de 120 anos você não
21:05 see the Second World War the great 21:05 ver a Segunda Guerra Mundial a grande
21:07 depression on this chart you don't see 21:07 depressão neste gráfico você não vê
21:09 anything that people have tried to 21:09 tudo o que as pessoas tentaram
21:10 change about it or do anything about it 21:10 mudar ou fazer algo a respeito
21:12 or anything else that humans have done 21:12 ou qualquer outra coisa que os humanos tenham feito
21:14 deliberately over the course of this 21:14 deliberadamente ao longo deste
21:16 history it's happening and it's 21:16 história está acontecendo e é
21:18 continuing to happen and we're now 21:18 continuando a acontecer e agora estamos
21:20 seeing of course the average company on 21:20 vendo, é claro, a empresa média em
21:22 the fortune 500 lasting a little more 21:22 a Fortune 500 durando um pouco mais
21:24 than 20 years instead of 80 years as it 21:24 de 20 anos em vez de 80 anos, uma vez que
21:26 used to and on the right you see a 21:26 costumava e à direita você vê um
21:28 picture of the first digital camera 21:28 foto da primeira câmera digital
21:30 invented by the 21:30 inventado pelo
21:31 a company that company took a look at 21:31 uma empresa que a empresa deu uma olhada
21:35 that digital camera in their boardroom 21:35 aquela câmera digital na sala de reuniões
21:36 and said I don't know what you're 21:36 e disse que não sei o que você está
21:38 talking about we sell paper and 21:38 falando sobre nós vendemos papel e
21:39 chemicals that's what Kodak does why do 21:39 produtos químicos é isso que a Kodak faz por que
21:42 we want to make a digital camera they 21:42 queremos fazer uma câmera digital eles
21:43 decided not to sell it and of course 21:43 decidiu não vendê-lo e, claro,
21:46 they went bankrupt the same year they 21:46 eles faliram no mesmo ano em que
21:47 went bankrupt Instagram which knew what 21:47 faliu Instagram que sabia o que
21:49 photography was actually about which was 21:49 fotografia era realmente sobre o que era
21:51 sharing memories with your friends was 21:51 compartilhar memórias com seus amigos era
21:53 sold for a billion dollars with 13 21:53 vendido por um bilhão de dólares com 13
21:55 employees now that's the dramatic story 21:55 funcionários agora essa é a história dramática
21:57 of how much things have changed that 13 21:57 de quanto as coisas mudaram que 13
22:00 people created something that was worth 22:00 pessoas criaram algo que valeu a pena
22:02 a billion dollars that's happened now 22:02 um bilhão de dólares que aconteceu agora
22:04 several times since then 22:04 várias vezes desde então
22:05 but the Kodak couldn't see it and it's 22:05, mas a Kodak não podia vê-lo e é
22:07 because we're very bad at predicting 22:07 porque somos muito ruins em prever
22:09 when the world changes like this how 22:09 quando o mundo muda assim como
22:13 will we be good at regulating how we'll 22:13 seremos bons em regular como vamos
22:15 we'll be good at deciding what the 22:15 seremos bons em decidir o que
22:16 ethics will be when we are so bad at 22:16 ética será quando somos tão ruins em
22:19 predicting it is one thing to work out 22:19 prevendo que uma coisa é resolver
22:22 what the ethics should be about things 22:22 qual deve ser a ética sobre as coisas
22:24 we've had for a decade things like 22:24 tivemos por uma década coisas como
22:26 nuclear weapons and even things like 22:26 armas nucleares e até coisas como
22:29 Facebook which we've now had for a 22:29 Facebook que agora temos por um
22:30 decade it's very very difficult to think 22:30 década, é muito, muito difícil pensar
22:33 about what the ethics should be of 22:33 sobre qual deveria ser a ética
22:34 things that barely exist and to even 22:34 coisas que quase não existem e até
22:37 call for moratoriums on them as has been 22:37 pedem moratórias sobre eles, como tem sido
22:40 suggested now there is a long history of 22:40 sugeriu agora que há uma longa história de
22:43 this long before the talk you just saw 22:43 muito antes da conversa que você acabou de ver
22:46 this morning here you can see cartoons 22:46 esta manhã aqui você pode ver desenhos animados
22:48 and books going back to 1878 where 22:48 e livros que remontam a 1878, onde
22:51 people put out this call they said 22:51 pessoas fizeram essa ligação, disseram
22:53 machines are going to replace people 22:53 máquinas vão substituir pessoas
22:55 it's going to cause tremendous 22:55 vai causar tremenda
22:57 disruption and upset in our society and 22:57 perturbação e transtorno em nossa sociedade e
22:59 we're gonna have to do something about 22:59 teremos que fazer algo sobre
23:01 it now they didn't actually figure out 23:01 agora eles realmente não descobriram
23:03 what to do about it 23:03 o que fazer sobre isso
23:04 but all the people who called for 23:04, mas todas as pessoas que pediram
23:07 holding back so far we think they were 23:07 segurando até agora, pensamos que eles estavam
23:10 wrong we think that our society has 23:10 errado, pensamos que nossa sociedade tem
23:12 generally progressed and been pretty 23:12 geralmente progredia e era bonita
23:14 good and there's a lot of charts which 23:14 bom e há muitos gráficos que
23:16 back that up as more than just intuition 23:16 confirma isso como mais do que apenas intuição
23:18 here's my favorite example in fact we 23:18 aqui está o meu exemplo favorito de fato nós
23:21 discovered this example when a group of 23:21 descobriu este exemplo quando um grupo de
23:23 us held a conference on the future of 23:23, realizamos uma conferência sobre o futuro da
23:25 computers and jobs and the question of 23:25 computadores e empregos e a questão de
23:28 whether or not computers would take all 23:28 se os computadores levariam ou não todos
23:30 the jobs what we should do when we 23:30 os trabalhos que devemos fazer quando
23:31 agreed that it was a very serious issue 23:31 concordou que era um problema muito sério
23:33 that needed a lot of analysis and 23:33 que precisavam de muita análise e
23:35 discussion and that maybe our group 23:35 discussão e que talvez o nosso grupo
23:37 which had various erudite people as well 23:37 que tinha várias pessoas eruditas também
23:39 as myself should write a letter to the 23:39, como eu deveria escrever uma carta ao
23:41 president because we all know the story 23:41 presidente, porque todos sabemos a história
23:42 of Einstein writing 23:42 da escrita de Einstein
23:44 letter to the president long ago about 23:44 carta ao presidente há muito tempo sobre
23:46 nuclear weapons in during the Second 23:46 armas nucleares durante o Segundo
23:48 World War and so someone at the back of 23:48 Guerra Mundial e alguém na parte de trás
23:51 the room said we don't need to write the 23:51 o quarto disse que não precisamos escrever o
23:52 letter somebody already wrote it I found 23:52 carta alguém já escreveu eu encontrei
23:54 it begins dear President Johnson so in 23:54 começa querido Presidente Johnson, então em
23:59 1964 the triple revolution letter warned 23:59 1964 a carta da tripla revolução advertia
24:02 about these three revolutions the cyber 24:02 sobre essas três revoluções do cyber
24:04 nation revolution as they termed it then 24:04 revolução da nação como eles o chamaram então
24:07 the weaponry and human rights 24:07 o armamento e os direitos humanos
24:08 revolutions so here we go with people 24:08 revoluções então aqui vamos nós com as pessoas
24:11 saying people in 1964 think about what 24:11 dizendo que as pessoas em 1964 pensam sobre o que
24:14 computers were like in 1964 just step 24:14 computadores eram como em 1964 apenas passo
24:17 back even if you're not that old you 24:17 de volta, mesmo se você não é tão velho que você
24:20 probably have some idea of what they 24:20 provavelmente têm alguma idéia do que eles
24:22 were compared to computers you have 24:22 foram comparados aos computadores que você possui
24:23 today they were scared to death of those 24:23 hoje eles morreram de medo daqueles
24:26 computers in 1964 and if we go back the 24:26 computadores em 1964 e se voltarmos a
24:29 book from 1984 that's when an early 24:29 livro de 1984 que é quando um início
24:31 Apple Mac was the best computer you 24:31 Apple Mac foi o melhor computador que você
24:34 could buy for yourself and it was going 24:34 poderia comprar por si mesmo e estava indo
24:35 to be drastic change so this is our 24:35 para ser uma mudança drástica, então esta é a nossa
24:39 history of predicting it's not a great 24:39 história de prever que não é um ótimo
24:41 one and it is no small risk to get these 24:41 e não é um risco pequeno obter esses
24:45 predictions wrong and this is the issue 24:45 previsões erradas e este é o problema
24:47 we must face everyone sees that there 24:47 devemos enfrentar todo mundo vê que lá
24:50 are problems because there are problems 24:50 são problemas porque existem problemas
24:52 but how do you figure out how to decide 24:52 mas como você decide como decidir
24:56 how do we try and understand that even 24:56 como tentamos entender que mesmo
25:00 though we see in hindsight what we might 25:00 apesar de vermos em retrospectiva o que poderíamos
25:02 have done better in the industrial 25:02 fizeram melhor no setor industrial
25:03 revolution what we might have done 25:03 revolução o que poderíamos ter feito
25:05 better in the agrarian revolution what 25:05 melhor na revolução agrária que
25:07 we might have done better even in coming 25:07 poderíamos ter feito melhor, mesmo chegando
25:09 down from the trees in hindsight we see 25:09 abaixo das árvores em retrospectiva, vemos
25:11 that we can know what it is but it is 25:11 que podemos saber o que é, mas é
25:14 impossible as far as I can tell or 25:14 impossível, tanto quanto eu posso dizer ou
25:16 figure out how to figure out who were 25:16 descobrir como descobrir quem eram
25:18 the people who were right in those days 25:18 as pessoas que estavam certas naqueles dias
25:21 if we could have listened to them 25:21 se pudéssemos ouvi-los
25:23 because I'm not saying that nobody saw 25:23 porque não estou dizendo que ninguém viu
25:25 the problems that we now know about in 25:25 os problemas que agora conhecemos em
25:27 hindsight there were the Luddites who 25:27 retrospectivamente, havia os luditas que
25:29 said you know we don't want we want to 25:29 disse que você sabe que não queremos que queremos
25:31 smash the machines they're going to 25:31 esmagar as máquinas que eles vão
25:32 cause this social challenge they turned 25:32 causam esse desafio social que eles viram
25:35 out to be wrong there were other people 25:35 por estar errado, havia outras pessoas
25:36 who were right 25:36 que estavam certos
25:37 we actually have metaphors for all these 25:37 na verdade, temos metáforas para todos esses
25:39 type of predictors right we have 25:39 tipo de preditores certo, temos
25:41 Cassandra who is right but no one 25:41 Cassandra, que está certa, mas ninguém
25:44 believes her and so there always are 25:44 acredita nela e por isso sempre há
25:46 some Cassandra's in every change and 25:46 alguns Cassandra está em cada mudança e
25:47 revolution every singularity who are 25:47 revolução toda singularidade que são
25:50 right but we have not listened to them 25:50 certo, mas não os ouvimos
25:52 in the past and there's no evidence 25:52 no passado e não há evidências
25:54 we're going to suddenly start listening 25:54 vamos começar a ouvir de repente
25:55 to them in the future 25:55 para eles no futuro
25:56 there are chicken littles of course 25:56 há littles de frango, é claro
25:57 who'd say everything is falling down and 25:57 quem diria que tudo está caindo e
26:00 they're wrong sometimes we listen to 26:00 eles estão errados, às vezes ouvimos
26:03 them and we have boys who cry wolf who 26:03 eles e temos meninos que choram lobo que
26:05 lie that something wrong is going on and 26:05 mentira que algo errado está acontecendo e
26:07 then we finally ignore them what I 26:07 então finalmente os ignoramos o que eu
26:09 couldn't find was a metaphor for people 26:09 não conseguiu encontrar era uma metáfora para as pessoas
26:12 who keep saying that bad things are 26:12 que continuam dizendo que coisas ruins são
26:15 going to happen and they're wrong every 26:15 vai acontecer e eles estão errados a cada
26:16 time but finally the time comes that 26:16 hora, mas finalmente chega a hora em que
26:19 they're right and we regret that we 26:19 eles estão certos e lamentamos que
26:20 didn't listen to them the closest thing 26:20 não os ouviu a coisa mais próxima
26:22 was the boy who cries wolf 26:22 era o menino que chora lobo
26:23 well these problems as I've shown you 26:23 bem esses problemas, como eu mostrei a você
26:29 have taken place throughout our history 26:29 ocorreram ao longo de nossa história
26:32 and every time we've felt something 26:32 e toda vez que sentimos algo
26:34 really bad was going to happen and every 26:34 muito ruim ia acontecer e todos os
26:37 time we've been wrong and every time 26:37 vez que estivemos errados e toda vez
26:40 even the most recent times where we said 26:40 mesmo nos momentos mais recentes em que dissemos
26:42 and by the way we've been wrong every 26:42 e pela maneira como estivemos errados a cada
26:43 time before but this time it's different 26:43 tempo antes, mas desta vez é diferente
26:45 and this time again we were wrong so how 26:45 e desta vez novamente estávamos errados, então como
26:49 do we figure out how to be right well we 26:49 descobrimos como estar bem, bem nós
26:53 all are not particularly fond of this 26:53 nem todos gostam particularmente disso
26:56 gentleman and what his company has done 26:56 cavalheiro e o que sua empresa fez
26:58 there's no question about that and so 26:58 não há dúvida sobre isso e então
27:00 people say why should this guy who built 27:00 as pessoas dizem por que esse cara que construiu
27:02 Facebook will be in charge of what 27:02 O Facebook ficará encarregado do que
27:04 Facebook does because his interest is in 27:04 Facebook faz porque seu interesse é
27:06 making money and his interest is in 27:06 ganhar dinheiro e seu interesse está em
27:08 building his user base and all these 27:08 construindo sua base de usuários e tudo isso
27:09 other things it's not the public 27:09 outras coisas não é o público
27:11 interest but if we are to have another 27:11 interesse, mas se quisermos ter outro
27:13 decision-making process for how his 27:13 processo de tomada de decisão sobre como
27:15 company and the other companies will run 27:15 empresa e as outras empresas serão executadas
27:17 exactly who will we trust to have the 27:17 exatamente em quem confiaremos para ter o
27:20 foresight other than the man who built 27:20 previsão diferente do homem que construiu
27:22 it and not that he's anywhere near 27:22 e não que ele esteja perto
27:23 perfect are we going to ask for the 27:23 perfeito vamos pedir o
27:26 crowd the public voters mobs will they 27:26 lotam os eleitores públicos
27:29 be the ones to make the right decision 27:29 quem toma a decisão certa
27:31 will courts be the ones who make the 27:31 serão os tribunais que fizerem a
27:34 decision about how our technology runs 27:34 decisão sobre como nossa tecnologia funciona
27:35 now many people say why don't we get 27:35 agora muitas pessoas dizem por que não conseguimos
27:38 governments because we can certainly 27:38 governos, porque certamente podemos
27:41 trust the people who run the governments 27:41 confiar nas pessoas que dirigem os governos
27:42 in order to solve these problems and 27:42, a fim de resolver esses problemas e
27:45 decides things now I think I figured out 27:45 decide as coisas agora, acho que descobri
27:46 the answer which is of course we should 27:46 a resposta que é claro que deveríamos
27:47 have bankers but I thought that would 27:47 tem banqueiros, mas eu pensei que seria
27:50 get a better hand here perhaps no it's 27:50 obter uma mão melhor aqui, talvez não, é
27:53 not the bankers either we don't know who 27:53 não os banqueiros ou não sabemos quem
27:56 it is and we already are a transhuman I 27:56 é e já somos um transumano I
28:00 think those monkeys have came down from 28:00 acho que esses macacos desceram de
28:02 the trees certainly wouldn't recognize 28:02 as árvores certamente não reconheceriam
28:03 us and even the people at Stonehenge I 28:03 nós e até as pessoas em Stonehenge I
28:05 don't think would recognize us as human 28:05 não acho que nos reconheceria como humanos
28:07 and our lives as human 28:07 e nossas vidas como humanas
28:09 and we don't love humanity nearly as 28:09 e não amamos a humanidade quase tão
28:11 much as we imagined in the natural human 28:11 tanto quanto imaginávamos no ser humano natural
28:14 state I would been dead a long time ago 28:14 estado que eu estava morto há muito tempo
28:16 I'm afraid I've taken the services of 28:16 Receio ter tomado os serviços de
28:19 the medical establishment a couple of 28:19 o estabelecimento médico um par de
28:20 times as many of you have and so much of 28:20 vezes mais do que você tem e muito
28:23 our lives in the past without the 28:23 nossas vidas no passado sem a
28:25 natural human life was you know nasty 28:25 vida humana natural era você sabe desagradável
28:27 brutish and short as Hobbes said we 28:27 brutal e curto como Hobbes disse que
28:30 don't want to be natural humans we want 28:30 não querem ser humanos naturais que queremos
28:32 to be that in fact I'm going to ask you 28:32 para que, de fato, eu vou te perguntar
28:34 a question there may be central to all 28:34 uma pergunta pode ser central para todos
28:37 of this because gird put up a lot of 28:37 disso, porque o cinto colocou um monte de
28:39 different attributes about human 28:39 atributos diferentes sobre humanos
28:41 thinking and style and said these are 28:41 pensamento e estilo e disse que estes são
28:44 the things that make us human I'm going 28:44 as coisas que nos tornam humanos eu vou
28:45 to tell you what I think is most special 28:45 para lhe dizer o que eu acho mais especial
28:46 about humans we are the one species that 28:46 sobre seres humanos, somos a única espécie que
28:50 wants to be better than we are we want 28:50 quer ser melhor do que nós queremos
28:53 to improve ourselves we want to change 28:53 para melhorar a nós mesmos, queremos mudar
28:56 ourselves to make us not change to make 28:56 para nos fazer não mudar para fazer
28:59 us not become inhuman from our 28:59 não nos tornemos desumanos da nossa
29:01 definition that would be inhuman that 29:01 definição que seria desumano que
29:04 would be making us what we are not 29:04 estaria nos tornando o que não somos
29:07 stopping relinquishing that would be the 29:07 parando de renunciar que seria o
29:11 challenge and yet we already can see 29:11 desafio e ainda podemos ver
29:14 this in our generations my father you 29:14 isso em nossas gerações meu pai você
29:16 know he thought this stuff was all crazy 29:16 sei que ele achava essas coisas todas loucas
29:18 my nephew on the left he you know uses 29:18 meu sobrinho do lado esquerdo ele conhece
29:23 it as part of his daily life and my 29:23 como parte de sua vida diária e minha
29:25 nephew on the right says you mean things 29:25 sobrinho à direita diz que você quer dizer coisas
29:27 are different they don't have any 29:27 são diferentes, eles não têm nenhum
29:30 concept that anything has gone bad or 29:30 conceito de que algo deu errado ou
29:32 wrong or is different from what they 29:32 errado ou é diferente do que eles
29:33 imagined it to be for us to relinquish 29:33 imaginou que seria para abandonarmos
29:35 these technologies it's a huge decision 29:35 essas tecnologias é uma decisão enorme
29:39 alright we're talking about technologies 29:39 tudo bem, estamos falando de tecnologias
29:41 that will save billions of lives not 29:41 que salvarão bilhões de vidas não
29:43 millions of lives that will end disease 29:43 milhões de vidas que acabarão com a doença
29:45 that could end scarcity that could bring 29:45 que poderia acabar com a escassez que poderia trazer
29:47 education to all that could reverse 29:47 educação para tudo o que poderia reverter
29:49 climate change and give us the 29:49 mudança climática e nos dê a
29:52 exploration of space to give us the 29:52 exploração do espaço para nos dar a
29:54 resources we have for everyone can lead 29:54 os recursos que temos para todos podem levar
29:55 a good life that's a lot to relinquish 29:55 uma boa vida que é muito para renunciar
29:57 because we're scared of the ethics we 29:57 porque temos medo da ética que
29:59 must be sure we do this right and if we 29:59 deve ter certeza de que fazemos isso corretamente e se
30:02 do a link wish if we saw that there 30:02 faça um link se vimos que não
30:04 should be a moratorium on AI I can tell 30:04 deve ser uma moratória na AI, posso dizer
30:07 you that this country here is working 30:07 você que este país aqui está trabalhando
30:09 very hard investing very heavily in 30:09 investindo muito pesado em
30:11 building AI technology and so if there 30:11 construindo tecnologia de IA e, se houver
30:13 is no European AI or American AI there 30:13 não existe AI europeia ou americana AI lá
30:16 will be Chinese a on and I'm not saying 30:16 será chinês um e não estou dizendo
30:19 the Chinese are evil I'm not saying that 30:19 os chineses são maus, não estou dizendo isso
30:20 they're going to you know be nasty 30:20 eles vão saber que você é desagradável
30:21 overlords through 30:21 senhores através
30:23 but they will have different ethics and 30:23 mas eles terão uma ética diferente e
30:24 different principles there is no choice 30:24 princípios diferentes, não há escolha
30:27 about whether this happens the only 30:27 sobre se isso acontece o único
30:28 choice is how we make it happen and the 30:28 a escolha é como fazemos acontecer e o
30:31 only way to do this is not to say no to 30:31 A única maneira de fazer isso é não dizer não a
30:33 it but to say as in improvisation people 30:33, mas para dizer como em pessoas de improvisação
30:36 say yes and this is going to happen and 30:36 diga que sim e isso vai acontecer e
30:40 we can maybe figure a way to do it 30:40 talvez possamos descobrir uma maneira de fazê-lo
30:42 better thank you very much we're now 30:42 melhor muito obrigado estamos agora
30:51 going to move into a fireside chat to 30:51 vai entrar em um bate-papo à beira da lareira para
30:54 child a little bit deeper into the 30:54 criança um pouco mais fundo no
30:57 issues so Brad you argue that you know 30:57 questões para Brad você argumenta que você sabe
31:03 we we need to lent progress technology 31:03 precisamos emprestar tecnologia de progresso
31:08 go ahead and then it could be dangerous 31:08 vá em frente e então pode ser perigoso
31:11 or misguided to try to govern it before 31:11 ou equivocado a tentar governá-lo antes
31:16 we even know what it can do and gird you 31:16 sabemos até o que ele pode fazer e cingir você
31:21 are proposing data ethics councils don't 31:21 estão propondo conselhos de ética em dados não
31:28 you think we have to draw a line before 31:28 você acha que temos que desenhar uma linha antes
31:30 we we unleash all of this especially if 31:30 nós liberamos tudo isso, especialmente se
31:33 you're right and indeed we will be 31:33 você está certo e de fato estaremos
31:37 changing humanity more in the next 20 31:37 mudando a humanidade mais nos próximos 20
31:41 years than we have in the last 300 are 31:41 anos do que temos nos últimos 300 são
31:45 there more dangers do we are we should 31:45 existem mais perigos que devemos
31:49 we really make sure that we know what 31:49 nós realmente garantimos que sabemos o que
31:52 we're doing before we unleash this 31:52 que estamos fazendo antes de liberar isso
31:54 technology yeah well this is not a black 31:54 tecnologia sim, bem, isso não é um preto
31:58 or white position right you guys drink 31:58 ou posição branca certo vocês bebem
32:01 coffee you smoke cigarettes you drink 32:01 café você fuma cigarros que bebe
32:02 alcohol many of us 32:02 álcool muitos de nós
32:03 you're not saying well in principle I 32:03 você não está dizendo bem, em princípio, eu
32:05 never touch any of that some people do 32:05 nunca toque nada disso que algumas pessoas fazem
32:07 but most people don't but if you drank a 32:07 mas a maioria das pessoas não, mas se você bebeu um
32:10 bottle of brandy before you go to work 32:10 garrafa de conhaque antes de ir para o trabalho
32:11 in the morning 32:11 da manhã
32:12 a lot of people wouldn't approve of it 32:12 muitas pessoas não aprovariam
32:14 so the question of Technology is exactly 32:14 então a questão da tecnologia é exatamente
32:17 the same question we we use technology 32:17 a mesma pergunta que usamos tecnologia
32:19 for the things that we need it done we 32:19 pelas coisas que precisamos, nós fizemos
32:21 use ia and maybe AI but we should not 32:21 use ia e talvez AI, mas não devemos
32:24 use AG I you know artificial general 32:24 use AG Eu sei geral artificial
32:26 intelligence because when we go on a 32:26 inteligência, porque quando vamos em um
32:29 level that is exponentially so much 32:29 nível que é exponencialmente muito
32:31 further out than we are currently at 32:31 mais longe do que estamos atualmente
32:32 there's a loss of control as application 32:32 há uma perda de controle como aplicação
32:35 there's all kinds of a shoe 32:35 há todos os tipos de sapatos
32:36 we don't agree on anything so what I'm 32:36 não concordamos em nada, então o que eu sou
32:38 saying is not to go backwards not to do 32:38 dizendo não é para voltar atrás para não fazer
32:40 any of those things I'm saying we need 32:40 qualquer uma dessas coisas que estou dizendo que precisamos
32:42 to figure out what do we want from 32:42 para descobrir o que queremos
32:44 technology 32:44 tecnologia
32:44 I think Tim Cook said three months ago 32:44 Acho que Tim Cook disse há três meses
32:47 at the European Commission he said our 32:47 na Comissão Europeia, ele disse que o nosso
32:49 technology can do great things but it 32:49 A tecnologia pode fazer grandes coisas, mas
32:52 does not want to do great things it 32:52 não quer fazer grandes coisas
32:55 doesn't want to do anything and if we 32:55 não quer fazer nada e se nós
32:58 want technology to do great things we 32:58 quer que a tecnologia faça grandes coisas que
33:00 have to make technology do great things 33:00 tem que fazer a tecnologia fazer grandes coisas
33:02 and we have to agree on what that is is 33:02 e temos que concordar com o que é isso
33:04 living to be 200 years old a great thing 33:04 vivendo para ter 200 anos uma grande coisa
33:07 right is having super soldiers a great 33:07 certo é ter super soldados um ótimo
33:10 thing is beating cancer a great thing I 33:10 coisa está batendo câncer uma grande coisa que eu
33:13 would say yes so this is what it comes 33:13 diria que sim, então é isso que vem
33:16 down to that's that's my proposition 33:16 até essa é a minha proposição
33:20 well you know we if if AI has the chance 33:20 bem, você sabe se se AI tem a chance
33:26 or other technologies has the chance to 33:26 ou outras tecnologias tem a chance de
33:28 help us eradicate poverty solve climate 33:28 nos ajudar a erradicar a pobreza resolver o clima
33:32 change significantly improve human Mudança 33:32 melhorar significativamente humano
33:34 health of course we have to go ahead but 33:34 saúde é claro que temos que ir em frente, mas
33:37 when we've introduced new game-changing 33:37 quando introduzimos novas mudanças de jogo
33:40 technologies like the internet which you 33:40 tecnologias como a internet que você
33:42 helped pioneer we came up with a 33:42 ajudou o pioneiro que surgiu com uma
33:45 governing system that was different than 33:45 sistema de governo que era diferente do
33:48 just government or somebody that we came 33:48 apenas governo ou alguém que viemos
33:51 up with I can write it was a new well 33:51 com eu posso escrever que era um novo poço
33:53 I'm not saying it's perfect but we came 33:53 Não estou dizendo que é perfeito, mas viemos
33:55 up with a new type of way to kind of 33:55 com um novo tipo de maneira de tipo de
33:58 check how things are going to be 33:58 verifique como as coisas vão ser
34:02 implemented can't we try something new 34:02 implementado, não podemos tentar algo novo
34:06 like a data ethics council without 34:06 como um conselho de ética em dados sem
34:11 hurting the benefits of the technology 34:11 prejudicando os benefícios da tecnologia
34:13 so I have no problem with people 34:13 então não tenho nenhum problema com as pessoas
34:15 discussing in fact I strongly approve of 34:15 discutindo de fato eu aprovo fortemente
34:17 ethics councils to sit and examine the 34:17 conselhos de ética para sentar e examinar o
34:20 ethical issues and make sure people are 34:20 questões éticas e verifique se as pessoas estão
34:22 aware of them and make sure the people 34:22 ciente deles e certifique-se de que as pessoas
34:23 building the technology both participate 34:23 construindo a tecnologia ambos participam
34:26 in the discussions and are aware of the 34:26 nas discussões e estão cientes das
34:27 issues and that we do it in concert with 34:27 questões e que fazemos isso em conjunto com
34:30 an understanding with society that's 34:30 um entendimento com a sociedade que é
34:31 absolutely fantastic the question is 34:31 absolutamente fantástico a questão é
34:33 when you get to the next level which is 34:33 quando você chegar ao próximo nível, que é
34:35 to say that we're going to have 34:35 para dizer que teremos
34:36 decision-making we're going to have 34:36 tomada de decisão, vamos ter
34:38 moratoriums we're going to have 34:38 ​​moratórias teremos
34:40 companies broken up we're going to that 34:40 empresas terminadas, vamos para isso
34:42 that is the thing we have to be very 34:42 é isso que temos que ser muito
34:43 careful about when we start saying you 34:43 cuidado sobre quando começamos a dizer que
34:45 can't do this and we have a disagreement 34:45 não pode fazer isso e temos um desacordo
34:47 about whether you should or so 34:47 sobre se você deve ou não
34:49 do this and someone has to decide 34:49 faça isso e alguém tem que decidir
34:51 whether we should or shouldn't do that 34:51 se devemos ou não fazer isso
34:52 that is where the really hard challenge 34:52 é aí que o desafio realmente difícil
34:54 lies but can I try I mean I think you 34:54 mentiras, mas posso tentar? Quero dizer, acho que você
34:57 know it's quite clear in the next 10 34:57 sei que é bastante claro nos próximos 10
34:59 maybe 20 years technology only virtually 34:59 talvez 20 anos de tecnologia apenas virtualmente
35:01 unlimited in power 35:01 ilimitado em poder
35:02 you know quantum computing and five 35:02 você sabe computação quântica e cinco
35:04 dream what have you and at that point is 35:04 sonhar o que você tem e nesse ponto é
35:07 just as important that we decide on what 35:07 tão importante quanto decidirmos o que
35:10 we want to use it for it as if we have 35:10 queremos usá-lo como se tivéssemos
35:12 the side that what climate change does 35:12 do lado que o que a mudança climática faz
35:13 you know ten years ago we didn't write 35:13 você sabe, há dez anos, não escrevemos
35:16 so but we are not one entity some people 35:16 então, mas não somos uma entidade, algumas pessoas
35:20 who are gonna want to use it for this 35:20 quem vai querer usá-lo para isso
35:21 and other people who want to use it for 35:21 e outras pessoas que desejam usá-lo para
35:22 that the question comes when one side 35:22 que a pergunta vem quando um lado
35:24 says the other side must not use it for 35:24 diz que o outro lado não deve usá-lo para
35:26 that right now we're in a situation when 35:26 que agora estamos em uma situação em que
35:30 it comes to AI and ethics where we have 35:30 trata-se de IA e ética, onde temos
35:32 literally dozens of different groups and 35:32 literalmente dezenas de diferentes grupos e
35:35 organizations who are working on AI nfx 35:35 organizações que estão trabalhando no AI nfx
35:38 and guidelines and most of them are 35:38 e diretrizes e a maioria delas são
35:41 controlled or were initiated by 35:41 controlados ou foram iniciados por
35:44 commercial interests and gerd you have 35:44 interesses comerciais e gerd você tem
35:46 said in the past you know you've asked 35:46 disse no passado, você sabe que pediu
35:48 the question are we comfortable with 35:48 a questão é que estamos confortáveis ​​com
35:49 handing Mission Control for Humanity to 35:49 entregando o Controle da Missão para a Humanidade para
35:51 Silicon Valley you know do we want 35:51 Vale do Silício, você sabe o que queremos
35:53 overworked programmers who are rushing 35:53 programadores sobrecarregados que estão correndo
35:56 to push out products to satisfy the 35:56 para empurrar produtos para satisfazer a
36:00 shareholders make these kind of 36:00 acionistas fazem esse tipo de
36:02 important decisions on the other hand 36:02 decisões importantes, por outro lado
36:04 companies have got to take 36:04 as empresas precisam tomar
36:06 responsibility because we will get to a 36:06 responsabilidade, porque chegaremos a um
36:09 point where the companies will not be 36:09 ponto em que as empresas não serão
36:13 able to 100% predict what the AI they 36:13 capaz de prever 100% do que a IA eles
36:17 unleash does and this this actually 36:17 desencadeia faz e isso isso realmente
36:20 exposes companies to to suits and all 36:20 expõe as empresas a ternos e todos
36:26 kinds of other things so what's the best 36:26 tipos de outras coisas, então qual é o melhor
36:28 way forward how do we make sure that we 36:28 caminho a seguir, como podemos ter certeza de que
36:31 make the best use of technology but also 36:31 fazem o melhor uso da tecnologia, mas também
36:34 protect society and even protect 36:34 proteger a sociedade e até proteger
36:36 business itself 36:36 próprio negócio
36:38 I think first the story of the future 36:38 Acho que primeiro a história do futuro
36:40 what the future is should be taken away 36:40 o que o futuro é deve ser tirado
36:42 from the discussion of of technology and 36:42 da discussão sobre tecnologia e
36:44 Silicon Valley and China on that level 36:44 Vale do Silício e China nesse nível
36:46 it should be given back to people and 36:46 deve ser devolvido às pessoas e
36:49 citizens and hopefully governments and 36:49 cidadãos e, esperançosamente, governos e
36:52 thinkers taken away from you know if you 36:52 pensadores tirados de você saber se você
36:54 talk about a AI you talking about IBM if 36:54 falar sobre um AI você está falando sobre a IBM se
36:57 you talk about quantum computing you 36:57 você fala sobre computação quântica você
36:58 talk about Microsoft and and they make 36:58 falam sobre a Microsoft ee eles fazem
37:00 the story of the future and that's great 37:00 a história do futuro e isso é ótimo
37:02 but it's not enough because they are 37:02 mas não é suficiente porque eles são
37:04 profit their companies for profit and 37:04 lucram suas empresas por lucro e
37:06 they it's none of their concern what the 37:06 eles não é da sua preocupação o que o
37:08 pollution of their product is so to 37:08 poluição do seu produto é tão
37:09 speak right even though they do start 37:09 falam bem, apesar de começarem
37:12 talking about it I have to challenge you 37:12 falando sobre isso, eu tenho que desafiá-lo
37:13 on that and I was one of the people who 37:13 sobre isso e eu era uma das pessoas que
37:15 helped convince Sergey Brin that they 37:15 ajudou a convencer Sergey Brin de que eles
37:17 should not collaborate with the Chinese 37:17 não deve colaborar com os chineses
37:19 and the oppression of the Chinese people 37:19 e a opressão do povo chinês
37:21 and providing information and he made 37:21 e fornecendo informações e ele fez
37:23 that decision and it was a very 37:23 essa decisão e foi muito
37:24 expensive and difficult decision for him 37:24 decisão cara e difícil para ele
37:26 to make which has probably cost him more 37:26 para fazer o que provavelmente lhe custou mais
37:28 money than most of the companies in this 37:28 dinheiro do que a maioria das empresas neste
37:30 room have ever made there are people 37:30 quarto já fez há pessoas
37:34 making ethical decisions and having 37:34 tomando decisões éticas e tendo
37:36 ethical thoughts in these organizations 37:36 pensamentos éticos nessas organizações
37:37 they're not these monoliths that you 37:37 não são esses monólitos que você
37:40 necessarily describe in fact perversely 37:40 descrevem necessariamente de fato perversamente
37:42 the ones that are led by individuals 37:42 aqueles que são liderados por indivíduos
37:44 like Sergey Brin and Mark Zuckerberg and 37:44 como Sergey Brin e Mark Zuckerberg e
37:46 Bill Gates and so on they actually are 37:46 Bill Gates e assim por diante eles realmente são
37:49 the ones that get the time to think 37:49 aqueles que têm tempo para pensar
37:51 about this I agree with you on this I 37:51 sobre isso, eu concordo com você sobre isso eu
37:53 mean I and I I have met many of people 37:53 significa que eu e eu conhecemos muitas pessoas
37:55 who are of that nature I just think the 37:55 que são dessa natureza, eu apenas acho que o
37:57 last two or three years we've had a bit 37:57 últimos dois ou três anos tivemos um pouco
37:59 of a mind change on this yeah before 37:59 de uma mudança de mente sobre isso sim antes
38:01 their technology companies who are my 38:01 suas empresas de tecnologia que são minhas
38:03 clients to a large degree their mission 38:03 clientes em grande parte sua missão
38:05 is to say you know what we make it work 38:05 é dizer que você sabe o que fazemos funcionar
38:07 we sell the Internet of Things and what 38:07 nós vendemos a Internet das Coisas e o que
38:09 people do with the Internet of Things is 38:09 as pessoas fazem com a Internet das Coisas é
38:11 none of our business and that is a very 38:11 nenhum de nossos negócios e isso é muito
38:13 very bad proposition that's like the gun 38:13 proposição muito ruim que é como a arma
38:15 companies saying you know people kill 38:15 empresas dizendo que você conhece pessoas que matam
38:17 people the guns don't kill people I mean 38:17 pessoas as armas não matam pessoas, quero dizer
38:19 the most ridiculous excuse for 38:19 a desculpa mais ridícula para
38:21 unaccountability you can imagine don't 38:21 irresponsabilidade você pode imaginar não
38:23 use that argument the United States by 38:23 usam esse argumento nos Estados Unidos
38:25 the way you know I get shot so I think I 38:25 do jeito que você sabe que eu levo um tiro, então eu acho que
38:29 think the one thing that perhaps we 38:29 acho que a única coisa que talvez nós
38:32 could all agree on is that the future 38:32 todos poderiam concordar é que o futuro
38:35 does not have to be dystopian technology 38:35 não precisa ser uma tecnologia distópica
38:40 is shaping the future but so are we 38:40 está moldando o futuro, mas nós também
38:42 so is Society so is business and 38:42 assim como a sociedade, assim como os negócios e
38:45 together we have to decide what kind of 38:45 juntos, temos que decidir que tipo de
38:49 world we want to live in and then help 38:49 mundo em que queremos viver e depois ajudar
38:51 shape the technology to ensure that 38:51 moldam a tecnologia para garantir que
38:54 that's the kind of future we want I am 38:54 esse é o tipo de futuro que queremos que eu sou
38:57 convinced the future is amazing I'm an 38:57 convencido de que o futuro é incrível, eu sou um
38:59 optimist you know you may have not seen 38:59 otimista você sabe que pode não ter visto
39:00 it from the slides but but basically 39:00 dos slides, mas basicamente
39:03 what is happening is like we get we will 39:03 o que está acontecendo é como chegamos
39:04 have all the tools we need to do amazing 39:04 tem todas as ferramentas que precisamos para fazer incrível
39:06 things and to solve all kinds of 39:06 coisas e resolver todos os tipos de
39:08 problems technology will not solve 39:08 problemas tecnologia não vai resolver
39:10 social cultural political problems 39:10 problemas políticos culturais sociais
39:12 that'll be left to us but you must 39:12 que nos resta, mas você deve
39:14 happen actually 39:14 acontecer realmente
39:15 good at once there's a reason like 39:15 bom de uma vez, há uma razão como
39:18 nuclear bombs right to take action what 39:18 bombas nucleares direito de tomar medidas que
39:21 I think it's going to happen and I think 39:21 Eu acho que vai acontecer e eu acho
39:22 it's unlikely to happen very soon that 39:22 é improvável que aconteça muito em breve que
39:25 will have incidents you know for example 39:25 terá incidentes que você conhece, por exemplo
39:27 on AI or the IOT that were very 39:27 na AI ou no IOT que eram muito
39:30 detrimental and then we say oh wait a 39:30 prejudicial e então dizemos oh espere um
39:32 minute now are we you know now we have 39:32 minuto agora somos você sabe agora temos
39:34 to do something I think that's a good 39:34 para fazer algo que eu acho bom
39:36 thing right I think that Facebook 39:36 coisa certa, eu acho que o Facebook
39:39 doesn't understand when they build it 39:39 não entende quando eles constroem
39:41 that it will be used for propaganda and 39:41 que será usado para propaganda e
39:43 to manipulate elections and I didn't 39:43 para manipular eleições e eu não fiz
39:45 know that they very there were very few 39:45 sabem que eles eram muito poucos
39:47 casandra's there who actually warned 39:47 Casandra está lá quem realmente avisou
39:48 about that and people who built Facebook 39:48 sobre isso e as pessoas que construíram o Facebook
39:50 didn't know it and now we see that and 39:50 não sabia disso e agora vemos isso e
39:52 now people are working very hard to fix 39:52 agora as pessoas estão trabalhando duro para consertar
39:54 it and I actually think that's the 39:54 e eu realmente acho que é o
39:55 system working I think to demanding that 39:55 sistema funcionando acho que exigindo que
39:58 somehow an ethics counsel would have 39:58 de alguma forma, um conselho de ética teria
40:00 figured out the propaganda dangers of

40:00 figured out the propaganda dangers of

40:00 figured out the  propaganda dangers of 40:00 descobriram os perigos da propaganda de
40:01 Facebook when it was being built and 40:01 Facebook quando estava sendo construído e
40:03 modified it to avoid them I think that's 40:03 modificado para evitá-los eu acho que é
40:06 very unprofitable are going to pay you 40:06 muito rentáveis ​​vão pagar você
40:09 know I mean I I predicted if Facebook 40:09 sei, quero dizer, eu previ se o Facebook
40:12 doesn't really change in the next two or 40:12 realmente não muda nos próximos dois ou
40:13 three years we're going to see a major 40:13 três anos, vamos ver uma grande
40:14 incident not like election manipulation 40:14 incidente não é como manipulação de eleições
40:17 but up an arch of a thousand chair and 40:17 mas um arco de mil cadeiras e
40:19 if that happens then we're going to say 40:19 se isso acontecer, então vamos dizer
40:21 oh god now we have to do something but 40:21 oh Deus, agora temos que fazer algo, mas
40:23 if something happens with the AI and we 40:23 se algo acontecer com a IA e nós
40:25 may have a loss of a million human lives 40:25 pode ter uma perda de um milhão de vidas humanas
40:27 you know that that's not something that 40:27 você sabe que isso não é algo que
40:29 we should necessarily take as a 40:29 devemos necessariamente tomar como
40:30 condition that would be better if we 40:30 condição que seria melhor se nós
40:32 didn't have to take that you know so my 40:32 não precisava aceitar o que você sabe, então meu
40:35 view is that a little bit of foresight Visão 40:35 é que um pouco de previsão
40:37 would be a good thing to have I picture 40:37 seria uma boa coisa para eu imaginar
40:39 a global council of Socrates kind of 40:39 um conselho global de Sócrates tipo de
40:41 people I was and they exist right we 40:41 pessoas que eu era e eles existem certo nós
40:44 know some of them are so to put actual 40:44 sei que alguns deles são tão reais
40:47 resources into this not just to build 40:47 recursos para isso, não apenas para construir
40:49 technology but not build humanity yeah 40:49 tecnologia, mas não construir a humanidade sim
40:51 that that's a very bad idea because 40:51 que é uma péssima ideia porque
40:53 we're going to end up in a world like 40:53 nós vamos acabar em um mundo como
40:54 this so I think that's a good note to 40:54 isso, então eu acho que é uma boa nota para
40:57 end on since we're out of time but 40:57 terminam desde que estamos sem tempo, mas
41:00 basically I think the message here is 41:00 basicamente, acho que a mensagem aqui é
41:02 don't don't put the brakes on technology 41:02 não pise no freio da tecnologia
41:06 but think seriously about the 41:06, mas pense seriamente sobre o
41:09 consequences and with that I'd like to 41:09 consequências e com isso eu gostaria de
41:11 ask you to give a big hand to our 41:11 pedir para você dar uma grande mão para o nosso
41:14 panelists and let me just note first 41:14 painelistas e deixe-me notar primeiro
41:15 that GERD will be doing a book signing 41:15 que a DRGE fará uma assinatura de livro
41:19 immediately following this session so if 41:19 imediatamente após esta sessão, por isso, se
41:21 you want to meet him and you want to get 41:21 você quer conhecê-lo e deseja obter
41:23 a copy this book please come come over 41:23 uma cópia deste livro, por favor, venha
41:26 to the side of the stage please give a 41:26 ao lado do palco, por favor, dê uma
41:28 big hand to our 41:28 grande mão para o nosso
41:29 analysts thank you very much Analistas 41:29 muito obrigado
41:30 [Applause] 41:30 [Aplausos]

Nenhum comentário:

Postar um comentário