During last week, I spent most of my days working in one assignment instead of making real progress with my reel. Why the heck did I do that? Well, I have to go back to last Sunday, while I did the rigid bodies assignment, linked on the previous post. During render time, while Maya wrote out all my frames and passes, an idea came to me. From the Set Extension class, I realized that this could be a very mindfucking assignment and I really wanted to play with portals. Have things crossing walls, or looking forward and seeing myself from up top, weird stuff like that. I couldn’t focus in class and didn’t take any of the plates we shot at the studio downstairs.

Then, the portal thing finally clicked, and I thought it would be super cool if I could go through it, using a phone app to choose my destination. I scribbled some notes of what had to be perfect, ideas of how to shoot it and work it out, avoiding as much complications as I could, from the beginning. For starters, I would love a very wide angle, first person look, with the phone on the screen, so I could show the interaction between the app and the real world, several different destinations, and finally, the one I’d cross to.

I let the idea grow for one more day and got to work on Tuesday, because I got really inspired to see if 1) I could get it done, 2) I could get it done IN TIME (which meant before tonight). I finished yesterday, and you can see the result below. After the video, I’m going really crazy and try to explain how/what I did during the process, because these breakdowns aren’t nearly enough to explain the mindbending I went through.

First of all, I thought about having a greenscreen and markers on the phone and replacing that in post, but I already had too much work on, so it was easier and faster to design and animate everything that would happen in the app in After Effects and just play it while recording my plates. In this process I had to find out android’s favorite video formats, screen resolution, how to output it from After Effects and, later on, add a guide soundtrack so I knew what animation was going to happen and when, in order to time my actions on the plate.

This took my Tuesday afternoon. When I got home I grabbed the camera and took a couple test shots of the corridor – where all the action takes place – because I wanted to go really wide angle, and my only available option was Canon’s 8-15mm fisheye lens. It has an amazing field of view, but the downside is that everything comes out fisheye-distorted, which means it’s impossible to camera project anything – which is key to my matchmoving and all the environments changing at the back.

With these distorted shots I tested Nuke’s LensDistortion node, which gave a kind-of-ok result, but really messing up with the corners of the frame. Also, it was impossible to bring it back to the original image – couldn’t figure out why. It creates a weird circle with black background and everything punched inside. anyway. For my plates, this could work. For the camera projections, not so good. I went then to see if there were any good “defishing” techniques using Photoshop and got great results with their custom presets for the Lens Correction filter. It requires you to install some extra free packages with Adobe Air, but it’s very quick and simple. In there, sometimes the 8-15mm showed up on the list, sometimes not, so I picked the regular 15mm fisheye along with a full frame sensor and the results were very very interesting. With these, I went into Maya and quickly buid some cubes to see if it was camera “projectable”. It worked.

Green light for the shooting then.

I started with the pictures for all the environments. Set the tripod at the same height and level for all the pictures, lowered ISO, closed aperture and selected a very low shutter speed so I could get as much depth detail and as little noise as possible. Not a hard achievement using the 8-15mm. Then I stuck a tape crosshair at my chest at the aproximate tripod height, so things wouldn’t look too weird when combined. I chose environments that would be very simple to build (hallways, which are pretty much cubes) and with lots of depth to them. There are some examples below.

Before shooting the plates I also took some extra pictures to help me building those environments and filling the holes in the projections. Measurements were also very important to speed up the process and make sure everything would match completely. All the corridors have about the same width, so that would also be a good way of spotting any weirdness that could come up.

I shot my first plate a couple times to get the timing right, focus pulls and camera movement. I tried to avoid covering the door with the phone as much as possible – to avoid roto – but that wasn’t so successful. Then I went down to the Sub Basement and shot my second plate using the same technique. I was worried about how to link them together – no idea at all, at the time of shooting – and if they would track properly.

To help me with the timing for the phone animation in the second shot, I have the animation playing for ten seconds and myself counting up. When it reaches ten, the glitches appear and the screen goes black. I needed to do all my transition and regret in around seven seconds, then look down, click the phone just to see it die and turn to the elevator. It was more complex than it looked.

After shooting everything, I was still worried about this fisheye look, so I undistorted all my environments and tried to project them. Got three out of four done in less than an hour. The laundry room seemed to have a lot more detail, it was already past 10pm and I should get some rest.

Day 2 – Wednesday – was a nightmare. Tracking worked well with the Nuke-undistorted plates, but whenever I tried to export the mesh created from the point cloud, it would crash, die, burn and so forth. Tracking took more than one and a half hour! In the meanwhile I tried to figure the logic behind crossing between plates and finally nailed what should happen. I didn’t get it to work on this day, though.

I finished all my projections while the tracking went bonkers, and by the end of the day I decided to ditch Nuke’s undistortion and go with Photoshop’s for the plates as well. I kept the node because I wanted to bring the fisheye look back into the final result, and that was achievable, with some cropping.

With all my projections done in Maya, I brought them into Nuke, along with the re-tracked plate – didn’t even bother with the point cloud this time, just got the geometry through another (fifth, or sixth, by now) camera projection. Aligned it all to the grid and exported as alembic. In Nuke, I placed all my other environments behind the door and animated them according to the app animation. I used cards and a random concrete texture to cover the gaps between them. Defocus with keyframes solved the focus pulling issues and oFlow got me the proper motion blur.

For Day 3 – Thursday – I refined my script, checked the tracking a thousand times and did all the roto work. This day went fast. I ran out of songs to listen while working, so I had to look for new stuff online. Doesn’t happen every day. So I rotoed (?!) the door out, and brought back the phone and my fingers when they went in front of the hole. The work on the door was awful, jumping as crazy, because there isn’t much stability and continuous motion when you are handheld walking while doing everything else at the same time. Each rotos had around 180 keyframes, for 250 frames of footage.

In Day 4 – Friday – my goal was connecting both plates, this was the cherry on top, because it wasn’t mandatory for the assignment, but I really wanted to do it, so I left it to the end.

What happens is: I have two 3d tracked plates, which means two cameras. First camera, inside my place, goes outside the door, which means that, from certain point, there is no more reference of the initial environment. The cut has to happen after this point. From the second plate, I needed to pick a frame not too close to the beginning, so I could transition from the first camera into the second – using a third camera and a keyframed parent constraint and keyframes for focal length because Nuke gave me slightly different numbers (12mm for one and 14mm for the other).

This part took half my morning, then I had to decide whether to fix the door’s roto or to add a portal effect that would benefit from the jaggedness of the mask. The principle behind the portal is the same as heatwaves. Noise that distorts what is around, affecting both foreground and background, changing constanly and waving around. I based it off the door’s alpha with good results. Had to do some keyframing to make it bigger near the end, fix colors and stuff. Then I noticed the portal was cutting into my hand as soon as the phone and fingers masks ended. More roto. Yay! Luckily, it wasn’t that much, and not so much movement either.

As soon as the portal looked good, I went back to the connection challenge.

I needed to decide exactly in which frame I was going back to live footage. Once that was picked, I had to camera project the very previous frame, using this final animated camera, and paint the gaps in the projection so it would fit between going out the door and turning into the other tracked camera. This was by far the most confusing part, in which I camera projected three different images that didn’t work, because I couldn’t figure out how to do it.

When I finally got it to work, all that was left was a crazy amount of painting and perspective to cover the huge amount of corridor that was untextured. Even harder, the painting had to be done UNDER the original texture, so the image wouldn’t jump on the frame it went to footage again. How do I know this? Of course, I painted it wrong the first time. The seamless paint took me way longer – like hours longer, getting to the point of painting single pixels that looked wrong. This was my Friday night.

Day 5 – Saturday – was light, I had to cleanup the markers outside the door, barely visible, and only for a couple frames, and figure out how to do breakdowns for this thing that almost melted my brain. Ended up oversimplifying because there was no way to explain all of this in a few seconds of video. Then, add sound effects, bring back lens distortion and a final grade.

Set Extension Rush.

Depois de passar mais de 8h no Domingo ajustando e modificando meu assignment de rigid bodies (leia-se: newton aplicado em 3D, com gravidade, impacto, massa, essas coisas legais todas), eu literalmente não vi o tempo passar enquando acertava câmera, render passes e morria pra processar o motion blur. Depois foram mais quatro horinhas de render e meia hora de comp pra poder chegar nesse resultado aí embaixo. Gostei um bocado, e adoro ficar vendo os tijolinhos voando loucamente quando a câmera passa no meio do caos.

Depois disso, descobri que tem um assignment de Set Extension pra semana que vem, que eu achei que tinha duas semanas pra fazer. A gente teve uma aula pra filmar coisas no estúdio, mas eu tava cheio de idéias e não consegui pensar em nada. Queria algo com portais, mindfuck, essas coisas. Depois de vários dias com o pensamento esquecido, pensando em como integrar camera projections e vídeos de forma imperceptível, transitando de um pro outro com cortes planejados, a idéia final veio nesse Domingo também. Segunda feira eu rabisquei umas questões técnicas, mas como tava sem câmera, não dava nem pra começar.

O plano era ter um app de celular que interage com o mundo, abrindo portais. Dois desafios já de cara: primeiro, tem toda uma interface gráfica e animações pro app. Resolvi fazer isso durante a tarde, na VFS, acometido de uma súbita saudade de motion graphics usando o After Effects. Nesse processo, também aprendi várias coisas sobre o sistema operacional do celular, fontes próprias, resolução, formatos de vídeo reconhecidos e tudo mais, até conseguir fazer a parada funcionar. Ficou meio pequeno, mas bonitinho.

Segundo desafio, tem que ser uma puta lente grande angular. A 24-105mm era muito fechada pro que eu queria, então resolvi testar mais processos usando a 8-15mm fisheye, que a gente usou pra fazer os HDRIs. O grande problema da fisheye é que ela tem uma distorção imensa, então não dá pra fazer Camera Projections com as imagens a menos que elas estejam “retilíneas”. Fiquei umas horinhas ontem testando com uma foto do corredor daqui de casa, e consegui fazer funcionar pra tirar a distorção e as coisas encaixarem direito no Maya. Próximo passo, descer pra todas as minhas locações de teletransporte e tirar fotos, tanto pras camera projections quanto para as imagens dentro do app.

Carreguei comigo uma trena, caderno e caneta, porque é fundamental que tudo esteja em escala real, senão na hora de colar tudo, dá uma merda fenomenal que leva uma vida pra arrumar. Mais rápido e fácil fazer certo desde o começo, ainda que leve uns minutinhos medindo coisas. Voltei pra casa, corrigi a distorção em todas as fotos, e por segurança já pulei no Maya pra camera projetar as coisas. Se não tivesse dando certo, voltava e tirava novas fotos. Fazer a última Camera Projection me levou uns três dias da última vez. Ontem eu fiz três em uma hora, e todas funcionando bem bonitinho. Tem umas coisas de textura pra pintar, mas as locações foram escolhidas pra facilitar minha vida – corredores e lugares cúbicos/quadrados. Tá rolando.

Hoje cedo rodei uns planos teste pra acertar o timing das animações dentro do app, testei usar luvas pra encostar no celular – o problema de a luva atrapalhar a sensibilidade da tela nesse caso foi uma grande vantagem, que me deixa apertar e mexer em mil coisas na tela sem os menus aparecerem por cima do meu vídeo. Bom, depois dos timings acertados, comecei a rodar as coisas, acho que tenho o que preciso, tô convertendo o material de RAW pra algo mais editável e trackeável. Ainda tem muitos passos pra dar certo.

Espero terminar no final de semana, porque a entrega é terça que vem, aí apareço aqui com as coisas. Me animei muito pra fazer porque deu pra colocar uma historinha no meio.

The second part of the previous post, and this is where things should start to get at least a little more interesting.

Working on my demo reel for Vancouver Film School, I decided to, besides all the VFX stuff and technical aspects of it, try some new stuff with cinematography, experimenting with a style that always gets my attention for it brings together a series of elements I believe work amazingly in terms of immersion and getting the audience into the story head on. That is diegetic cinematography, is making the camera a part of the characters’ world. It’s an object that they see, use and interact, which is also used to tell the story. This has some immediate consequences that aren’t standard through film history like “there is no fourth wall”, the characters know they’re being filmed, they interact with the camera but just because they have a relationship with the one holding it.

We’ve seen it before several times among sci-fi – Chronicle (2012), Cloverfield (2008), Project X (2012), Project Almanac (2014) – and the whole genre of “Found Footage” horror – Blair Witch Project (1999), Paranormal Activity (2007), V/H/S (2012) or [REC] (2007) among many others. I won’t focus on the horror movies at this point. There are huge articles about the Found Footage genre, and I’m no expert, but I’d like to discuss what this kind of camera work brings to the story: first of all, the audience knows exactly as much as the characters. Hitchcock says the key to tension is giving key information to the audience, that the characters don’t know about. Like whenever we know the killer is at the victim’s house way before the crime takes place in the screen. We – as audience – worry because we foresee what’s going to happen and it’s the wait that causes the thrill.

When the camera is a character, if the audience knows something, so do the characters, and here the thrill comes from the fact that we have the suspicion that something bad might happen or WILL happen, but we don’t know exactly what, when, or to whom. Whenever it hits, we’ll be as surprised as they are, thinking of ways out the same way they’re doing. For me, this is a boost in terms of imersion and also a challenge. Since we’re so close to the characters, whenever they act in really stupid ways we’re thrown out of the movie, they’re not convincing anymore. Like any horror movie, when people go to “check their basement when the lights go off”, or think it’s “a good idea to face the bad guys breaking into their homes”. Regular people like you and me would never do these things, I don’t have a hero complex, if I think it might be dangerous, I’ll flee or hide!

While reading on this subject to see what other people think, I came across a very small number or articles, none of them really deep, and with very different opinions, so it’s time to make clear that I’m not defending that the viewer is a character in the movie, since we see through a character’s camera. A movie is much different from a game, all the choices have been made from the start. There’s no interactivity, I’m not saying we’re seeing through the eyes of a character. I think first person videos are awesome, but I wouldn’t say that is diegetic cinematography because there is no camera. We act different when we’re just talking to someone versus when we’re on tape.

Using the argument of “we remember things” as a comparison to recording is not valid. We haven’t got to a point where people have cameras embedded into their eyes yet. The proof that people act weirdly on camera, even if the camera is someone else’s eye is all the hard times Dr. Steve Mann goes through. There’s also a great Black Mirror episode (The Entire History of You, 2011) about implants that turn our eyes into cameras, but that’s still sci-fi, and it takes place somewhere in the future.

Following this line of cinematography, Christopher Campbell wrote an article discussing why that is weird, bad in a standard way, but interesting if done properly since it’s different from anything we’ve seen so far. He specifically talks about Hardcore, currently in post, made by the same guys who did the Biting Elbows – Bad Motherfucker music video, which is shot entirely from the protagonist’s point of view (POV). Campbell makes a comparison between literature, games and movies, establishing a clear difference between books written in first person and movies in first person.

So, my definition of diegetic cinematography requires a physical camera being held by one of the characters. When that happens, the camera usually has a specific purpose inside the film itself. In Project Almanac they’re documenting their progress through an experiment, in Cloverfield, the guy is in charge of filming the farewell party for one of the main characters. Project X and Chronicle, though, have very different approaches that make sense in today’s culture. The title says it all, Chronicle, “a historical account of events arranged in order of time usually without analysis or interpretation”. There’s no manipulation of time, the editing just goes forward. We don’t see the same moment twice, we don’t have flashbacks or forwards. Phones can shoot video, we have a plethora of social networks based around video, or that support to video uploads (YouTube, Vimeo, Facebook, WhatsApp, Snapchat, Vine, Instagram and so forth). We take way more pictures in our everyday life just by having a half-decent camera in our phones. We don’t worry that much about framing, image stabilization and such for our videos. These are just small chunks of memories, shot in chronological order. They’re usually more important to ourselves than to others. Sure we share them, our current culture revolves around showing where we’ve been and who we met, all very much time stamped.

Nikon just released a whole campaign based around that, calling the current generation “Generation Image“. Not so long ago we had (we still have some) very long discussions regarding what “qualifies” a photographer. Are amateur photographs taken with a phone camera as valid as the ones taken by someone who studied the craft for years and use expensive gear with the single purpose of taking photographs? If we’re talking about interviews and scheduled events, sure, that is debatable, but what about natural disasters, conflict areas and other situations where stuff just happened, and when the Professional gets there, the event is already past? What tells better the story of a gas explosion inside a shopping mall: a high-megapixel count photograph of some ruins with sharp focus hours after the event or one taken in the food court with a phone, at the time of the explosion, all blurry, but good enough to understand what’s happening? Nightcrawler (2014) is a great movie kind of related to this subject, with lots of camera on the screen, but no main diegetic cinematography.

John Powers, when writing about Chronicle, has an interesting point when he says this shift between traditional media/cinematography and amateur recordings began back in 2001, with the attack at the World Trade Center. While most media networks were running towards the area to shoot their own footage, thousands of people around the buildings were already doing this on their own, simply because they could. I’ll come back to John’s review later on.

It’s not hard to tell the difference between a professionally shot video and one done by someone who had the sole purpose of recording the events. Actually, it’s quite easy to spot which is the Pro and which is the amateur. Then Hollywood comes in and turns the “amateur look” into a style. What are the benefits?

First off, it has a much more “real” look, as if that isn’t a movie, carefully written, planned and executed. We relate to the characters because that’s the way we’d film if we were in that situation. The handheld, shaky camera, also called “documentary camera” has this name because documentaries usually have small budgets and it’s focused on reality. Real people, real lives, real intentions, no actors. When the first portable camera came out, documentaries blossomed. After some time, what was considered a flaw – the shakiness and curiosity of documentaries cinematography – was brought into fiction with mockumentaries, behind the scenes that seem as amazing as the real scenes and much more.

Steve Bryant, in his article about the camera becoming a character, says this is a negative thing. What should work as a bridge between audience and show actually sets them further apart because there’s now two layers of fiction (behind the scenes AND the show) instead of just one (the show) and we don’t notice that. We feel closer to the actors, we think we know the ones behind the characters, when what’s really happening is the actors are acting about themselves as well. It’s confusing, but makes a lot of sense in the end. How does this relate to the diegetic cinematography thing? Well, the show wouldn’t count as diegetic cinematography, but the behind the scenes would, since many times the camera operators are just as real as their subjects.

Ok, so we got a reality and empathy bonus because that’s how the audience would film. I also believe this is much easier for the actors, because it’s much more natural. The hard part is making it feel right. Once you know how to handle a camera, professionally, it’s easy to make a mess and say it’s amateur. The key is to know how much messier it should look, which are the main points and reactions the audience has to see and which ones are best when just outside the frame. How close to danger are our characters willing to go? What’s their relationship with the person handling the camera? Do they care, are they pissed about it? Are they filming just to keep a record of events, or for sharing? And the ever present question “what’s more important now, the camera or whatever’s happening at the same time?”, this will mostly dictate framing and might have influence on editing as well.

There’s one issue, though. One downside that’s very hard to avoid: sequences of shitty, blurry, shaky images while our characters run. For many people, these are huge turn-offs. They feel sick, dizzy or worse. I myself have a high threshold for shakiness, but every once in a while I see something so confusing that makes me question the process.

This is what I’ve been experimenting recently to tell my story loaded with visual effects. I’m wondering which side will win: the reality from the cinematography, or the out-of-this-world aspect of the visual effects involved. I’m also gonna question the editing process, but this post is already too long and confusing to include that!

MidTerm 4 Presentation.

I started to write this post while waiting in the movie theater and noticed I was writing in english only three paragraphs in, so, it’s gonna be like that. Fuck worrying about it being written perfectly, I think we’re past that stage.

Before we get to the point of what I’m writing about, I want to blabber about what GOT me writing, so here we go:

We had to present our progress this Friday and I heard the thing I feared the most: “you should reshoot”. Yay.

At first I was devastated. It was crazy hard to get all of that together. When I say “all of that” I mean the timing within the shots, performance, camera movements, Vancouver’s crazy weather, natural lighting and artificial lighting combined (practical and non-diegetic), the schedule of both May and myself, help from friends at very inconvenient hours (after 11pm and before 8am), and so forth (I could go on this list for hours). During my brief depressed hours I sent a message to May about it, saying I had absolutely no idea of how to pull it off again.

There’s this thing about May that it’s very important to point here: whenever I’m in doubt regarding any kind of work or my own skills, she’s able to bring me back to my playful-arrogant “I know how to do it” character in just a couple sentences. She inspires me in the best possible ways.

So, there was I, lost during lunch break, sending a message to May. I really don’t know how she does it, but before the break was over, I was already coming up with strategies and new ideas about what I had to do. Since the weekend was totally off, I decided to get into research and lots of weird subjects started to come together, so here I am.

Just to be clear: I will reshoot. Hell, I’ll even make it harder, and this time it’s gonna work. It’s almost there already. In the meantime, planning, rehearsing and testing.

Chega de Filmar. Por Enquanto.

Nesse fim de semana rodamos os dois últimos reels da turma, Petar e Clem. Sábado começou bem promissor, com chuva que só a desgraça, locação longe pra carai, frio (não tanto), Blackmagic 4k alugada, carro, equipamento na lama – lama pra todo lado, na verdade – e por aí vai. Parecia que tava dando tudo errado, mas na verdade, foi bem sucesso. O material ficou incrivelmente bonito, e depois de toda a desgraceira e lamaçal, o Sol apareceu na hora mágica (leia-se: se pondo), pra alguns dos planos mais bonitos entre todos os reels. Claro, eu tava lá carregando equipamento, ajudando a fazer funcionar e tirando fotos entre takes. Algumas delas já estão na lista de minhas fotos favoritas de todos os tempos.

O Clem é a única pessoa no grupo – além de mim – que tem diálogo e som direto no filme, então tem uma pegada boa de narrativa – o menino é gênio, em resumo. O set foi exaustivo, pegamos muita neblina, chuva fina e depois Sol. Meu sapato tem lama pra um ano inteiro, mas vou esperar a chuva natural de Vancouver lavar tudo embora. Acho que foi o set com mais equipamento também, então, mais preocupação de não perder nada e manter tudo acessível pra emergências. Chega de lenga lenga, tomem aí as fotos.

Domingo eu acordei cedo e fui pra VFS, pra discutir o reel do Petar com ele antes de rodarmos, algumas horas à frente. Aproveitamos a ocasião pra recortar trackers e colar um monte de fio no braço do menino – numa geringonça construída pelo Nicko, quando a gente tava fazendo setas para a bike. O Petar usou as paradas como um indicador de segurança, na história, amarrado no pulso, bem divertido. A filmagem foi bem rápida, também com a Blackmagic. Comprovamos que os deuses de Vancouver gostam dos alunos da VFS, porque desde que a gente começou a filmar, parece que o inverno quebrou, e tivemos bastante Sol, e até calor. Só tivemos chuva de verdade em um dia, e no começo da filmagem do Clem. Hoje o Sol ainda tava rolando, e não vou reclamar!

Quando acabamos era perto de uma da tarde e voltei pra casa porque tinha uma quantidade ridícula de trabalho pra matar pra pre-presentation de hoje. Era tanta coisa que passei um tempão só pra conseguir me organizar e focar numa tarefa de cada vez. Um monte de coisa deu errado, tive que improvisar, acabei indo dormir duas da manhã. Hoje tava bem nervoso com a apresentação, porque não tinha a menor idéia do que esperar e tava bem inseguro com o que eu tava entregando porque o Domingo tinha rendido pouco. No fim das contas, foi sussa, o Brent gostou do que tinha, fez várias sugestões legais, que me deixaram mais tranquilo. É foda a sensação de não querer aprofundar muito o trabalho em um plano porque ele pode acabar caindo no meio do caminho. Acho que tô superando, só tenho que refilmar uma ceninha, e teve um comentário que eu tava antecipando, que foi uma vantagem do formato instagramico: tem duas cenas que contam a história. As outras só deixam melhor, mas se não der certo, dá pra derrubar completamente e focar nessas essenciais.

Bom, os planos já estão filmados e vou converter tudo pra poder liberar espaço no computador, que a coisa tá tensa! Da noite pro dia, tô ficando sem espaço!

Filmagens Continuam.

Nessa semana, filmamos mais, e ainda tem mais dois sets no fim de semana. Quarta saímos mais cedo da aula e pegamos o rumo de North Vancouver, Lynn Park como destino final. Éramos quatro – Clem, Petar, eu e Dani – para filmar os planos do reel da Dani. Fomos esperando chuva e frio. Chegamos lá, tava um Sol ridículo, água cristalina – na verdade, mais pra esmeraldina, de tão verde que era – e poucos turistas passeando.

Claro, antes de chegarmos na locação, perdemos o ponto de descer do ônibus, pedimos indicação pra uma mulher na rua e ela apontou o caminho mais escroto possível, passando por uma trilha completamente deserta, no meio do nada. No fim das contas, chegamos à locação e enquanto o Clem e a Dani rodavam os planos, aproveitando a beleza do Sol, eu e o Petar ficamos fazendo HDRIs e rodando planos subaquáticos com uma GoPro. Apesar do cansaço de carregar um monte de peso pra cima e pra baixo, foi um set bem tranquilo, sem correria e um ambiente muito refrescante em relação à nossa rotina de ficar sentado no computador.

Depois de um tempo o Sol se escondeu e a gente começou a sentir o frio de estar perto da água no meio de um parque, mas nada muito terrível. Meus milhares de casacos e luvas, além da diversão do set, foram suficientes pra evitar novos desastres. Voltamos bem a tempo para a aula da noite, onde recebemos comentários na versão atual do demo reel, e agora tenho uma quantidade ridícula de trabalho pra fazer no fim de semana, pra nossa Pre-Presentation de segunda feira.

Além de todas as coisas pra colocar no corte do reel, tínhamos dois “grandes” assignments pra finalizar e apresentar também. Aquele do greenscreen que apareceu no outro post, dos Petars no trem, e esse aqui embaixo, que é uma camera projection. O que isso significa é que eu tirei uma foto, normal, encontrei a posição exata da câmera dentro do Maya, pra encaixar perfeitametne com a realidade e construí um monte de cubos e cilindros que representassem os objetos da cena. Depois, usando essa câmera como um projetor, a gente lança a foto original por cima dos objetos e dá umas ajustadas (leia-se: alinhar a câmera e construir os objetos levou um dia, fazer as “ajustadas” levou dois) pra poder mexer a câmera mais livremente, como se não fosse uma imagem bidimensional, mas sim um ambiente completo 3d filmado.

Pirando completamente, aproveitei as imagens do greenscreen que tinha feito com o Fernão, pro Reel, e coloquei na tela dessa TV, assim como usei expressões matemáticas pra fazer as luzes de internet no modem piscarem com um ritmo plausível, ao invés de ficarem lá, acesas pra sempre. Tá aí o resultado:

Ah, uma última, nossa versão de como se coloca a logo dos canais pra aparecer na TV no lugar certo.


So I decided to add a little something after the Conclusion and Bibliography for a couple reasons. First, it’s been a year since the article was originally written. During this year, a lot happened. SLR Magic’s Anamorphot came out, we got the Focus Module, 4K is becoming very popular, the GH4 allows people to shoot 4:3, the Rectilux are just around the corner, and so forth.

I’ve tried to follow how things are going, but there’s nothing like testing, and my budget is currently VERY low. I’ve moved from Brazil to Canada, running after a career in VFX, but cinematography and anamorphics are not forgotten. Over the following months I have some lenses to test and review (placed an order on a Rectilux and just a Kowa B&H from a friend), got an Isco 16:9 Video Attachment, that essentially is an Isco 54 with 1.33x stretch, FINALLY got an Iscorama 42 and most definitely will try something for the FM lens contest, so these might have their posts here anytime soon.

There are also some other more specific products that I’d like to try, out of curiosity, like Moondog Labs’ anamorphic adapter for iPhone, the tiny VM lens paired with something small on the BlackMagic Pocket Cinema Camera, the new Cinemorph filter, that goes on the back of the Sigma ART 18-35mm f/1.8 lens, as any oval adapter should, and, of course, the – not so new anymore – SLR Magic’s Anamorphot and Letus AnamorphX. I’ve seen test videos and read reviews, but they aren’t as deep as I wanted them to be. I know what to expect from each lens, but the exact details and feeling from them are not there. I mean, test videos are nice, but you can’t figure out how that would work in a real production workflow, what kinds of quirks and bonuses they have and how to benefit or get around them, this is not the kind of thing you get from a test video. Anyway, I’m getting off-topic.

I was able to find the SLR Anamorphot on a rental house nearby and might try going there during school’s break to test it out, but most of the other lenses are completely out of my reach and I’m not willing to spend any money to find the good and bad about them, write it down and then have the trouble of passing them along – as I did with over ten of my anamorphics before coming to Vancouver.

I’m also posting random small hints, tips and things I did during research that didn’t quite make into the final version of the essay on my Instagram, along with pretty pictures of the lenses we all love so much. I just went over how to convert a bayo mount Century into regular threads and adapt regular filters in front of it for less than $10, so it might interest some people.

Post propaganda? Bom, não exatamente.

O Writogether é um projeto iniciado pelo Ricardo Cestari, primo da May, que mora em São Bernardo. Depois faço um post falando da figura, mas é um camarada que respeito muito porque é o tipo de pessoa que falta no mundo, uma pessoa com opinião, mas não fechado em seu universo, e muito disposto a discutir sobre qualquer tema, e reconhecer quando/se estava errado no começo, e ver as coisas por outro ponto de vista. Isso por si só já seria suficiente pra eu apoiar o projeto, mas, vamos à idéia.

Júnior, me corrija se eu estiver errado aqui, ok? Hahaha! O Writogether é uma plataforma de criação colaborativa para ficção. Temos três tipos de contas, escritores, ilustradores e leitores. Seus papéis são óbvios, certo? Mas a parte mais legal é como tudo se relaciona. Sei lá, digamos que eu gosto de criar personagens, e só, não quero fazer histórias, só inventar um monte de personagens extremamente elaborados. Ok, eu posso fazer isso e ir registrando eles lá. Aí vem um sujeito que gosta de um (ou mais) desses personagens e resolve escrever uma história com eles, que tal? Ou então um que vai na linha de “uma imagem vale mais que mil palavras”, e gosta mesmo de retratar esses personagens, ou situações descritas nas histórias, beleza, fechado, pode fazer isso também!

Por que eu acho tudo isso foda? Porque antes de começar a me mudar direto, eu gostava muito de escrever histórias. No começo, ainda em São Paulo, escrevi algumas coisinhas, sempre curtas ou seriadas (essas fotozinhas aí do lado esquerdo do blog), porque não gosto da idéia de ficar guardando as coisas pra não terminar nunca. Se é pra ficar pela metade, pelo menos vai ter metade pra quem quiser ler. E ter feedback nesse processo, saber que tem gente lendo, e receber comentários, críticas e sugestões também afeta o andamento da história. Como não curtir uma idéia que é basicamente uma rede social pra pessoas que gostam disso?

Não vou dizer que parei de escrever histórias, só que ultimamente tenho estado bastante ocupado escrevendo a minha própria, e resumindo os capítulos aqui, na forma de posts nesse blog. Sinto falta de escrever – não que eu seja um puta escritor, mas eu gosto do processo! – e toda vez que tenho que elaborar um filminho, criar o roteiro é sempre o passo que mais me faz pensar, e amarrar as pontas, porque uma história ruim ou uma história mal contada não valem todo o esforço que vem a seguir.

Não vou nem entrar no mérito da leitura de ficção, porque quem lê sabe como é não conseguir desgrudar do livro até acabar, faltem 4 ou 400 páginas, tem hora que o bicho pega e aí já era. Adeus realidade, vamos descobrir como esses outros eventos se desenrolam nas páginas, redesenhados pela nossa criatividade pra imaginar as palavras em ações e imagens.

Enfim, acabei divagando um monte e não sei se vendi a idéia. Gosto da interatividade e colaboração – porra, meu TCC é “open source google docs” – e se tá sendo tocado por um cara firmeza como o Ricardo, tô entrando no barco pra ver quão longe ele vai me levar – trocadilho proposital aqui!

Ah, e fui eu que criei a id visual (esse banner aí no topo do post, e a foto de perfil no facebook), logo antes de começar o term, pra já dar uma ajuda no que estava ao meu alcance, e incentivar a idéia a ir pra frente. Atualmente o projeto tá no Catarse, dêem uma passada lá e colaborem, vai ser foda! O vídeo e as descrições também clarificam bastante desse monte de maluquice que eu falei aqui.

Catarse.me – Writogether

Fim de Semana de Filmagens.

Entre Sexta e Domingo, filmei quatro projetos de demo reel de pessoas diferentes – incluindo o meu – em locações totalmente diferentes, com estilos totalmente diferentes e diretores igualmente diferentes (“igualmente diferentes”? existe isso?). A sexta começou com aula, e depois cerimônia de graduação de uma turma (3D108). Depois, voltei pra retirar as toneladas de equipamento que eu tinha reservado pro meu set, e que ia usar partes nas filmagens dos outros também.

Eu e o Sean carregamos sacos de areia e prolongas pra casa dele, pra eu pegar no dia seguinte, e junto com o Petar, Pan, Clem e Bianca, carregamos dois kits de luz até o Seabus e fizemos a travessia para North Vancouver. De lá, pegamos uma carona com o primo do Pan, pra casa da tia dele, onde íamos rodar uns dez planinhos. A idéia é que fosse amanhecer, e já tava tudo escuro. Ah, o quarto era no porão, com uma janela que dava pra uma parede, com uma grade em cima, saindo pro quintal. Lá fomos nós, pendurar um refletor pela grade, pra luz rebatida entrar suave e funcionar como começo de dia. O Clem mandou muito bem na câmera, e os planos ficaram bem bonitos. Depois jantamos por lá, conversamos um bocado, desproduzimos e voltamos. Peguei um táxi de Waterfront pra casa, carregando todo o equipamento. Cheguei em casa umas 9h30 pm e tava acabado de cansaço.

De noite, dormi muito mal, preocupado com os meus planos, que ia rodar no Sábado de noite. Tenho a sensação de ter ficado metade da noite acordado, pensando nisso, em coisas que poderiam dar errado, e como resolvê-las pra nem dar chance de acontecer. No finzinho da manhã de Sábado, fui pra VFS, filmar com o Sean. Lá estavam a Rityka, Petar, Clem e Kaileene, que era a atriz do filme do Sean. No caminho pra escola, tive a idéia de adiantar uma etapa do meu projeto, aproveitando que a May já estaria com a gente pra fazer o photoscan dela na locação, então peguei o nosso greenscreen portátil pra carregar comigo. Enquanto o Sean imprimia autorizações de filmagem e as pessoas chegavam, o Petar dedicou vários minutos (e muitos metros de fita crepe verde) cobrindo a arma que seria usada nas filmagens, pra polícia não levar a gente em cana.

O dia foi bem nublado e escureceu cedo, mas conseguimos filmar tudo sem stress. Fui encontrar a May pra pegar o equipamento de som (estávamos filmando a duas quadras do campus dela), e depois reencontrar a equipe num café. Na saída, carregando uma porrada de equipamento, vejo meu ônibus passar. Saio correndo pra pegar o desgraçado e começo a contagem regressiva pra conseguir transportar tudo da escola pra casa usando um ticket só. Cheguei em casa, larguei tudo na sala e saí correndo pra pegar outro ônibus de volta pra escola. Pensei em avisar o vizinho, um papel falando que eram filmagens, pra ele não ficar alarmado com gritos. Por coincidência EXTREMA, encontrei o bróder DENTRO DO ÔNIBUS. Ele ficou super feliz que eu avisei. Da VFS, fomos para a casa do Sean buscar as coisas que tínhamos deixado por lá, e corri pra pegar o último ônibus de volta pra casa, carregando mais peso. Consegui não gastar mais bilhetes, mas foi por pouco: quando peguei o último ônibus tinha seis minutos pra usar o ticket!

Combinei com o Nicko pra vir aqui fazer som direto pra gente, o Petar veio dar uma mão em tudo que precisasse (ligar luzes, operar câmera, o que o plano pedisse). Começamos um pouco atrasados, mas acabamos antes do previsto, às 10h30 pm. Filmei em RAW, então foram toneladas de material. Lá pras tantas, ao invés de frio, a gente tava com calor. As luzes ligadas dentro do apartamento certamente colaboraram um bocado no processo. Tenho umas coisas de making of, e planos que deram errado que são ótimos pra compartilhar, mas preciso tratá-los primeiro, e tô com assignments mais urgentes pra fazer.

Acabamos de filmar de noite, e agora dependia do clima para ver se ia rodar no Domingo de manhã cedo ou não. Se estivesse chovendo ou com neblina, não ia rodar. Tinha deixado só alguns planos pendentes, que dependiam mesmo de luz natural, e de um horário muito específico de luz, entre 8 e 9 da manhã. Se eu tinha dormido mal de Sexta pra Sábado, acho que de Sábado pra Domingo eu só pisquei, preocupado com o que já tinha passado e com o que ainda tinha que fazer. Combinei com o Petar e o Nicko de chegarem por aqui às 7h20, e começamos a rodar pouco depois das 8h am. Aproveitando que o tempo tava BEM nublado, e a luz suave, levamos adiante o plano de fazer o photoscan da May em locação. Tinha uma caminhonete estacionada BEM NO MEIO de onde meu plano devia acontecer, mas deu pra contornar. Na verdade, se o plano der certo, esse carro vai ser um mega bônus em termos de coisas voadoras no final. Escaneamos ele também, por via das dúvidas.

Acabamos uns quarenta minutos atrasados em relação aos planos originais. A May tava liberada, mas pedi a ajuda do Petar pra fazer um photoscan do carro e HDRI da locação. Como eu tinha esquecido a 8-15mm em casa, voltamos acompanhando a May, e deixamos os equipamentos essenciais com o Nicko. Voltamos, torcemos pro carro ainda estar lá, e o estacionamento ainda estar vazio. Tudo certo. Chamamos o Nicko, ele desce sem os equipamentos, esqueceu em casa. Subimos com ele. Descemos, e tem um carro gigante, branco, estacionado na vaga mais importante pra gente tirar nossas fotos. PUTA QUE PARIU, SÉRIO?! VAI ME SACANEAR AGORA?!

Ficamos um pouco desesperados, consideramos escanear os dois carros e tentar separar depois, limpar o HDRI no Photoshop, escanear metade do carro e espelhar, várias loucuras. Depois de cinco minutos de crise, o dono do carro branco aparece, entra em sua SUV e vai embora. I-NA-CRE-DI-TÁ-VEL. Literalmente dou pulos de alegria. Enquanto o Petar se prepara pro photoscan, vou pro meio da rua fazer o HDRI (uma série de fotos no tripé, girando ao redor de um mesmo ponto). Ligo a câmera, tiro a primeira sequência (de seis), e começa a passar um monte de gente e um monte de carro. Fico indignado, desisto. O Petar tá no telefone. Espero ele terminar, e a rua fica deserta assim que tiro o tripé de lá. Volto pra tentar de novo, CARROS PACARAI! Tá me sacaneando, cidade dos infernos?! Dessa vez eu não arredo pé e todo mundo some em poucos segundos. Faço as fotos em tempo recorde. Depois disso, ainda vimos vários carros desistindo de entrar na rua porque a gente tava filmando/fotografando. Fiquei feliz com esse respeito (ou medo?) do trabalho alheio. Escaneamos o carro, são dez pras 11 da manhã.

O Nicko tá emprestando uns leds e circuitos pro Petar usar no reel dele, então subimos pra dar uma olhada nisso. Saímos, tô quase atrasado pra encontrar com a Rityka, pro reel dela. Passo em casa, pego o shoulder, câmera, baterias e lentes, descarrego o cartão e volto pra entregar as fotos dos scans pro Petar tentar processar qualquer coisa – a gente tava sem muita fé, achando que tava subexposto, e a May tava com roupas escuras, que também pioram os resultados. Enfim, entre ter chance de dar meio certo, e não ter nada, por não ter feito, escolhi ter chance. O Petar tá indo pro mesmo lado que eu, e vamos conversando até Waterfront.

Lá encontro com a Rityka e o Sean, pra ir pro Stanley Park filmar. Também tinha combinado com o Lucas Campos (AV12), que tá por aqui, de ir com a gente, pra conversar, e ver um set muito tranquilo. Pegamos o ônibus e a locação era DO LADO do ponto final, então nada de carregar peso até o meio do mato, ou congelar em Surrey. Fiquei muito feliz com isso! Armamos nossa bagunça e começamos a rodar. Acabamos relativamente rápido e os planos ficaram bem bonitos. O Lucas fez um monte de making of com a T3i da escola e me deu uma puta ajuda num plano de foco impossível, então tô devendo uma pro rapaz. Depois que terminamos, o Sean e a Rityka foram pegar o ônibus de volta pra escola e eu e o Lucas voltamos andando, carregando equipamento.

Conseguimos a proeza de andar vinte minutos na direção errada, e quase não achamos a saída do Stanley Park. No fim, saímos do lado oposto ao planejado, e tivemos que andar mais uma porrada até chegar na Davie de novo. Já tô sabendo de todas as últimas histórias do AV, rolês, tretas, greves, exercícios e professores. Sentamos pra conversar num restaurante japonês e é aí que o Lucas me conta que o Scavone (aka o orientador do meu TCC) usou meu TCC como base pro trabalho final de Imagem 4. EU NÃO SABIA DISSO! Fiquei muito curioso pra ler as análises da galera, e vou mandar um email pro Scavone, pedindo, de curiosidade mesmo. Isso é uma experiência nova, de ler o que alguém escreveu sobre algo que eu escrevi – e que não é só um comentário breve, e sim uma análise de algum ponto em particular do trabalho.

O apê onde ele tá ficando é no caminho pra minha casa, então nos separamos por lá e voltei pra cá com o resto das tralhas. Aí começou aquela parte do set que todo mundo adora, que é a desprodução. Como fui fazendo tudo correndo, a casa tava uma zona total. Aquela sensação imbatível de usar sua casa como base de produção, sabe? Refletores e tripé pra todo lado, cabos fazendo armadilhas pros distraídos, malas e mais malas escondidas atrás de todas as portas, greenscreen do lado da pia do banheiro, uma beleza. Quando acabei de fechar e conferir tudo já eram umas 7h30 pm e sentei no computador pra terminar de converter meus arquivos.

A May chegou mais ou menos nesse horário, e eu tava aqui na dúvida se tava morto de cansaço ou ficando doente, sendo que as duas coisas tinham probabilidades bem parecidas, com base no que eu tava sentindo. Às 8h30 eu era um zumbi na frente da tela, esperando a conversão terminar pra poder colocar tudo no HD externo pra levar pra escola na Segunda. Ainda fiquei mais umas horas acordado pra dar coragem pra May fazer os projetos dela, e morri assim que meu corpo atingiu a posição horizontal. Segunda feira eu acordei bem, melhor que o normal, então descartei a chance de estar doente. Era só cansaço mesmo. Meus músculos estavam todos doendo, tipo depois de malhar. Sensação terrível. Fazia muito tempo que não carregava tanto peso, andava, e me preocupava tanto, especialmente num intervalo de tempo tão curto.

De manhã, dei uma geral nos arquivos e comecei a montar o curtinha. Não consegui terminar a tempo da aula, mas já recebi meus objetivos para a apresentação da semana que vem. Nesse processo também descobri que tinha dois mega assignments pra fazer e entregar no mesmo dia, e que eu não tinha nem começado! Um de greenscreen, que a gente filmou no estúdio – e conseguiu derrubar o quadro de luz do porão da VFS – e foi meio gambiarra, porque eu tava de diretor – e vocês bem sabem como eu adoro dirigir qualquer coisa que não seja um carro. Cheguei em casa às 5h30 pm e comecei esse diabo de assignment. Quando a May chegou, 10h30 pm, eu tava acabando de acabar. Hoje de manhã gastei mais umas duas horinhas pra fazer os breakdowns exigidos e estou livre desse.

O segundo assignment é um rolê de camera projection. Não sei nem se tenho exemplos pra mostrar, mas comecei logo depois do greenscreen, usando uma foto daqui do apartamento mesmo, e acho que tá indo bem. Se eu conseguir fazer mais da metade hoje, já é lucro. Ainda tenho que terminar de editar o reel!

Bom, chega de escrever, que há muito pra fazer

Sobre Permissões de Filmagem.

Filmei na rua muitas vezes no Brasil. A maioria delas era guerrilha total, sem autorização, se ninguém reclamar, tá valendo, escondendo a câmera, com medo de ladrão, de polícia, de segurança, de gente olhando torto, muitas vezes abrindo mão de planos importantes ou com planos caindo porque a gente tinha sido expulso dos lugares. Esse era meu maior medo durante a produção do Zona SSP.

Às vezes – muito raramente – a gente conseguia autorização pra filmar, e mesmo assim era uma zona, não podia atrapalhar o trânsito, tinha que lidar com gente escrota na rua, gente que passa gritando no carro, dando tchau pra câmera, ter que explicar pra polícia que a gente tem autorização pra filmar – isso aconteceu mais de uma vez -, se proteger de caminhão pegando fogo, essas coisas. Quando não era isso, a autorização era negada e aí já era até os métodos de guerrilha, a saída era arrumar outra locação mesmo, o que quase sempre era prejuízo.

Aí cheguei aqui em Vancouver com o mesmo pensamento sobre filmagens pro demo reel. Ser discreto, entrar e sair rápido, equipe pequena, se ninguém reclamar tá valendo, e por aí vai. A escola recomenda que a gente peça autorização pra filmar em qualquer lugar. Se a gente não fornecer as autorizações e contratos, eles não podem divulgar nosso projeto final e ajudar a conseguir trabalho. Fui me preparando pra ter que mudar de locação, pra ter que abrir mão da divulgação da escola, pra passar stress com burocracia, ligar pra fulano, encontrar sicrano, explicar dez vezes o filme, garantir que não ia importunar ninguém enquanto filmava, essas coisas que a gente sempre promete quando tá pedindo autorização pra qualquer coisa.

Pra filmar aqui no apartamento, precisava da autorização da administração do prédio. Menos mal, a garagem ia precisar também, então pelo menos é um papel só. Esperava que fossem me encher o saco, pedi ajuda pro Wyll, que tem os contatos com a mulher da administração. Deixei o papel preenchido com ele na Quinta passada, à noite. Explicava o que eram as cenas que eu ia rodar, a data, e o tempo que eu ia levar. Sexta de manhã o Wyll me fala que o papel já tá com ele, assinado, e a manager ainda ofereceu ajuda, se algo der errado. Uau, impressionante, por essa eu não esperava.

Passo 2, tenho uma sequência que se passa num beco entre duas ruas movimentadas. Precisava da autorização do film office – órgão da prefeitura. O formulário tem quatro páginas pra você detalhar uma pá de coisas que – claro – podem estar erradas também e alguém vai implicar no processo. Mandei o pedido na Sexta feira, 9 da manhã. Não era uma da tarde quando chega a autorização, uma mensagem super meiga e um sonoro “boa sorte!” com smilezinho no final e tudo.

Tem certas coisas que a diferença entre Vancouver e Brasil é grande (porque tive esses problemas filmando em várias cidades e estados), mas essa foi DE LONGE a que mais me surpreendeu até agora. Só me resta torcer pra não ter neblina no Domingo, e aí vai ser tudo lindo e maravilhoso. Torçam aí também!

« Older entries