tag:blogger.com,1999:blog-33027355840861745462024-03-13T21:51:50.382-07:00GT RenduLe Groupe de Travail Rendu et Visualisation regroupe de nombreux chercheurs dans le domaine du rendu en synthèse d'images.
Le groupe de travail s'organise en réunion biannuelle où divers travaux actuels sont présentésAnonymoushttp://www.blogger.com/profile/02521283040779685047noreply@blogger.comBlogger23125tag:blogger.com,1999:blog-3302735584086174546.post-68952124581042102982023-06-03T01:51:00.015-07:002023-09-20T11:45:22.421-07:00<p> </p><h1 class="post-title entry-title" itemprop="name" style="text-align: left;">
Journée du GT rendu (23 juin 2023)
</h1>
<div class="post-header">
<div class="post-header-line-1"></div>
</div>
<p><span style="background-color: black; color: white;"> La prochaine journée du Groupe de Travail Rendu du GDR IGRV
aura lieu le 23 juin en présentiel dans les locaux </span>Adobe Research Paris; 94-96 Rue Lauriston, Salle « Moulin Rouge », au Rez-de-Chaussée, accessible depuis l’atrium, Paris, 75016</p><p><b>IMPORTANT INSCRIPTIONS: </b>Pour assister aux présentations, merci d’ajouter votre prénom/nom/organisme dans ce framapad :
<a href="https://mypads2.framapad.org/p/gt-rendu-xyvob9ol" rel="noopener" target="_blank">https://mypads2.framapad.org/p/gt-rendu-xyvob9ol</a>
La liste des participants <b>sera transmise à Adobe 3 jours avant le début
du GT</b> et une pièce d’identité vous sera demandée à l’entrée.</p><p> </p><p> <span style="color: white;">Programme</span></p><p dir="ltr" id="docs-internal-guid-5b17c1f7-7fff-3eee-45d3-e70616c8ecb4" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">10h00 — Accueil / café</span></p>
<span style="color: white;"><br /></span>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">10h30 — Megane Bati (IRIT) : Couplage de conduction, convection et rayonnement dans un seul espace de chemins : application au rendu infrarouge (</span><a href="https://www.irit.fr/STORM/site/coupling-conduction-convection-and-radiative-transfer-in-a-single-path-space/" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://www.irit.fr/STORM/site/coupling-conduction-convection-and-radiative-transfer-in-a-single-path-space/</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">11h00 — Jonathan Dupuy (Intel) : Sampling Visible GGX Normals with Spherical Caps (</span><a href="https://onrendering.com/" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://onrendering.com/</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">) </span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">11h30 — Valentin Deschaintre (Adobe) : « A material world » </span></p>
<span style="color: white;"><br /></span>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">12h30 — Repas (en autonomie dans le quartier)</span></p>
<span style="color: white;"><br /></span>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">13h30 — Philippe Weier (Saarland University) : Neural Prefiltering for Correlation-Aware Levels of Detail (</span><a href="https://weiphil.github.io/portfolio/neural_lod" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://weiphil.github.io/portfolio/neural_lod</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">14h00 — Alban Gauthier (Inria) : MIPNet: Neural Normal-to-Anisotropic-Roughness MIP Mapping (</span><a href="https://perso.telecom-paristech.fr/boubek/papers/MIPNet/" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://perso.telecom-paristech.fr/boubek/papers/MIPNet/</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">14h30 — Charline Grenier (laboratoire ICube, Université de Strasbourg) : Color-mapped noise vector fields for generating procedural micro-patterns (</span><a href="https://onlinelibrary.wiley.com/doi/10.1111/cgf.14693" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://onlinelibrary.wiley.com/doi/10.1111/cgf.14693</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">)</span></p>
<span style="color: white;"><br /></span>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">15h00 — Pause café</span></p>
<span style="color: white;"><br /></span>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">15h30 — Baptiste Nicolet (EPFL) : Recursive control variates for inverse rendering (</span><a href="https://bnicolet.com/publications/Nicolet2023Recursive.html" style="color: white; text-decoration: none;"><span style="background-color: transparent; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration-skip-ink: none; text-decoration: underline; vertical-align: baseline; white-space: pre-wrap;">https://bnicolet.com/publications/Nicolet2023Recursive.html</span></a><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: transparent; color: white; font-family: Arial; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">16h00 — Discussions / prospective</span></p><p> </p><p><span></span></p><a name='more'></a> <br /><p></p><p> </p><h3 style="text-align: left;">Présentations confirmées pour l'instant : </h3><p><b>Charline Grenier</b>, laboratoire ICube, Université de Strasbourg<br />
<i>Color-mapped noise vector fields for generating procedural micro-patterns</i><br />
<br />
<b>Mégane Bati</b>, IRIT<br />
<i>Couplage de conduction, convection et rayonnement dans un seul espace de chemins : application au rendu infrarouge.</i><a href=" https://www.irit.fr/STORM/site/coupling-conduction-convection-and-radiative-transfer-in-a-single-path-space/"><br /> https://www.irit.fr/STORM/site/coupling-conduction-convection-and-radiative-transfer-in-a-single-path-space/</a></p><p>
<b>Alban Gauthier</b>, INRIA Sophia-Antipolis, Télécom Paris<br />
<i>MIPNet: Neural Normal-to-Anisotropic-Roughness MIP Mapping</i><br />
<a href="https://perso.telecom-paristech.fr/boubek/papers/MIPNet/">https://perso.telecom-paristech.fr/boubek/papers/MIPNet/</a><br />
<a href="https://dl.acm.org/doi/10.1145/3550454.3555487">https://dl.acm.org/doi/10.1145/3550454.3555487</a><br />
<br />
<b>Philippe Weier</b> Saarland University et DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz), Allemagne<br />
<i>Neural Prefiltering for Correlation-Aware Levels of Detail</i><br /><a href=" https://weiphil.github.io/portfolio/neural_lod"> https://weiphil.github.io/portfolio/neural_lod</a><br />
<br />
Présentation Invitée :<br />
<br />
<b>Valentin Deschaintre</b>, Adobe Research London <br /><i>A Material World<br /></i><a href="https://valentin.deschaintre.fr/">https://valentin.deschaintre.fr/<i><br /></i></a></p><p><span></span></p><!--more--><div class="col-md-3"><h3 style="text-align: left;">Appel à Contributions</h3></div><p>Pour présenter, envoyez un email à George ou Romain avec [GT Rendu] dans le sujet, avec les informations suivantes :</p><div class="col-12 col-md-9"><ul><li>Prénom, nom, organisme de l’orateur</li><li><span style="font-family: times;">Titre de la présentation</span></li><li>Eventuellement un lien vers une page web s’il s’agit d’un travail déjà publié/diffusé.</li></ul></div><p></p><p><span></span></p><!--more--><br /><p></p>George Drettakishttp://www.blogger.com/profile/10753876289541594692noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-10873975863367675402023-04-07T05:27:00.009-07:002023-04-07T05:29:32.357-07:00Journée du GT rendu (23 mai 2022)<p><span style="background-color: black; color: white;"> </span></p><p><span style="background-color: black; color: white;">Bonjour à toutes et à tous, <br /></span>
</p>
<p><span style="background-color: black; color: white;">La prochaine journée du Groupe de Travail Rendu du GDR IGRV
aura lieu le 23 mai <b>en présentiel</b> dans les locaux de
Sorbonne université : campus Pierre et Marie Curie, Place
Jussieu, 75005 Paris, tour 26, salle 25-26/105. <br /></span>
</p>
<p><span style="background-color: black; color: white;">Voici le programme de la journée : </span><span style="background-color: black; color: white;"><br /></span>
</p>
<p dir="ltr" id="docs-internal-guid-37dc49e7-7fff-5080-31c3-e33cbc4ae439" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">09h30 – Accueil / café</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">10h00 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Jonathan Dupuy & Thomas Deliot</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (Unity) : “Tessellation adaptative pour la subdivision Catmull Clark” (SIGGRAPH22 - advances in real-time rendering)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">10h30 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Héloïse de Dinechin</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (AMD) : “Rendering Layered Materials with Diffuse Interfaces" (I3D22)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">11h00 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Rosalie Martin</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (Adobe) : “MaterIA: Single Image High-Resolution Material Capture in the Wild” (EG22)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">11h30 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Loïs Paulin</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (LIRIS) : “Matbuilder: Mastering Sampling Uniformity Over Projections" (SIGGRAPH22)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">12h00 – Pause (repas en autonomie dans le quartier)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">13h30 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Théo Tonat</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (Adobe) : “Tesselation-Free Displacement Mapping for Ray Tracing” (SIGGRAPH ASIA22)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">14h00 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Wilhem Barbier </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">(Unity) : “Texturage de maillages non paramétrisé à l'aide de leur demi-arêtes”</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">14h30 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Jérémie Schertzer</span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;"> (Adobe) : “Fiblets for Real-Time Rendering of Massive Brain Tractograms" (EG22)</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">15h00 – Pause café</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">15h30 – </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 700; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Pierre Mezieres </span><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">(IRIT) : “Efficient spherical harmonics projection"</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">16h00 – Discussions / prospective</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">
</span></p>
<p dir="ltr" style="line-height: 1.38; margin-bottom: 0pt; margin-top: 0pt;"><span style="background-color: black; color: white; font-size: 11pt; font-style: normal; font-variant: normal; font-weight: 400; text-decoration: none; vertical-align: baseline; white-space: pre-wrap;">Ce sera aussi l'occasion de revenir sur le document de prospective en fin de journée afin que nous puissions le tenir à jour. </span></p>Romain Vergnehttp://www.blogger.com/profile/12373664342110619993noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-78271633429878046362021-12-10T06:05:00.006-08:002021-12-10T06:05:56.971-08:00Journée du GT rendu (3 mars 2021)<p><span>La prochaine journée du Groupe de Travail Rendu du GDR IG-RV
aura lieu en visio le 3 mars 2021. Vous êtes tous bienvenu pour participer à cette journée !<br /></span></p><div><span><br /></span></div><div><span>Voici le programme :</span></div><div><span>10h00 -- Nicolas Lutz (ICube) : “Cyclostationary Gaussian noise: theory and synthesis”<br />10h30 -- Neus Sabater (InterDigital) : “Volumetric Rendering for Immersive Video Experience”<br />11h00 -- Nicolas Barroso (Irit) : “Génération d'images intermédiaires pour le rendu d'animations stylisées à base de marques”<br />11h30 -- Pause<br />13h30 -- Xavier Chermain (ICube) : “Real-Time Geometric Glint Anti-Aliasing with Normal Map Filtering”<br />14h00 -- Nolan Mestres (UGA) : “Local Light Alignment for Multi-Scale Shape Depiction”<br />14h30 -- Amélie Fondevilla (Irit) : "Towards a visual language for animated paintings"<br />15h00 -- Discussions / prospective</span></div>Romain Vergnehttp://www.blogger.com/profile/12373664342110619993noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-83346932132345555962020-07-06T05:35:00.002-07:002020-07-06T05:36:45.240-07:00Journée du GT Rendu (7 juillet 2020)<div><br /><span>La prochaine journée du Groupe de Travail Rendu du GDR IG-RV
aura lieu en visio le mardi 7 juillet 2020. Vous êtes tous bienvenu pour participer à cette journée !<br /></span></div><div><span><br /></span></div><div><span>Voici le programme :<br /></span></div><div><span></span></div><span>
10h00 - <a href="https://jeromebuisine.fr/">Jérome Buisine</a> : Etat de l’art de la perception du bruit
dans les images de synthèses<br />
10h30 - <a href="https://typhomnt.github.io/">Maxime Garcia</a> : A post-processing stylization pipeline for
mark-based expressive rendering<br />
11h00 - <a href="https://igg.icube.unistra.fr/index.php/Basile_Sauvage">Basile Sauvage</a> : Content-aware texture deformation with
dynamic control<br />
11h30 - Pause<br />
13h30 - Jean-Pierre Richa : Splats Ray Tracing of Outdoor Point
Clouds for Autonomous Vehicles Sensors Simulation.<br />
14h00 - <a href="http://www-sop.inria.fr/members/George.Drettakis/">Georges Drettakis</a> : Marrying Learning to Graphics:
Rendering, 3D Geometry and Synthetic Training Data<br />
15h00 - Discussions</span>Romain Vergnehttp://www.blogger.com/profile/12373664342110619993noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-23827168572568429222019-02-14T01:19:00.001-08:002019-02-14T01:19:39.213-08:00Journée du GT Rendu du 14 Février 2019Bonjour à toutes et tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG-RV
aura lieu à Paris le 14 février 2019, dans les locaux de l'école Télécom ParisTech (rue Barrault, 75006 Paris) en salle B310 . Vous êtes bien sur toujours bienvenu pour participer à cette journée.
<br />
<h4>
Programme de la journée (14 Février 2019)</h4>
09h30 - <a href="http://www.femmeactuelle.fr/var/femmeactuelle/storage/images/actu/vie-pratique/pause-cafe-au-travail-12907/8589049-1-fre-FR/la-pause-cafe-au-travail-un-rituel-sacre.jpg">Acceuil</a> <br />
10h00 - <a href="http://simonrodriguez.fr/">Simon Rodriguez</a> Exploitation des répétitions pour le rendu basé image des façades <br />
10h30 - <a href="http://manao.inria.fr/perso/~adufay/">Arthur Dufay </a> Malia : un moteur de rendu spectral open source sur GPU <br />
11h00 - <a href="https://belcour.github.io/blog/">Laurent Belcour </a> Efficient Rendering of Layered Materials using an Atomic Decomposition with Statistical Operators<br />
11h30 - <a href="https://dpt-info.u-strasbg.fr/~dischler/">Nicolas Lutz </a> Synthèse de textures par patchs <br />
12h00 - Repas (en autonomie dans le quartier) <br />
14h00 - Discussion et prospective sur l'avenir du GT Rendu<br />
15h00 - Pause café <br />
15h15 - <a href="http://onrendering.com/">Jonathan Dupuy </a> An Adaptive Parameterization for Efficient Material Acquisition and Rendering<br />
15h45 - <a href="">Théo Thonat</a> Traitement des structures fines pour le rendu basé image<br />
16h15 - <a href="">Ulysse Larvy</a> Orientation automatique de carte d’environnement<br />
End - Table ronde, nouvelles et évolutions du GT Rendu et fin des journéesGuillaume Gilethttp://www.blogger.com/profile/11560506643280973720noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-24650646976022672992018-01-31T01:57:00.000-08:002018-02-13T02:19:21.134-08:00Prochaine Journée du GT Rendu (15 Février 2018)Bonjour à toutes et tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG-RV
aura lieu à Paris le 15 février 2018, dans les locaux de l'école des MINES ParisTech (60 Boulevard Saint-Michel, 75006 Paris) en salle L-218 . Vous êtes bien sur toujours bienvenu pour participer à cette journée.
<br />
<h4>
Programme de la journée (15 Février 2018)</h4>
09h30 - <a href="http://www.femmeactuelle.fr/var/femmeactuelle/storage/images/actu/vie-pratique/pause-cafe-au-travail-12907/8589049-1-fre-FR/la-pause-cafe-au-travail-un-rituel-sacre.jpg">Acceuil</a> <br />
10h00 - <a href="http://www-sop.inria.fr/members/Jean-Dominique.Favreau/">Jean-Dominique Favreau</a> Photo2ClipArt: Image Abstraction and Vectorization Using Layered Linear Gradients <br />
10h30 - <a href="https://liris.cnrs.fr/membres?idn=bfraboni">Basile fraboni </a> Apprentissage automatique pour le débruitage d'images de rendu realiste <br />
11h00 - <a href="https://belcour.github.io/blog/">Laurent Belcour </a> A Practical Extension to Microfacet Theory for the Modeling of Varying Iridescence<br />
11h30 - <a href="https://dpt-info.u-strasbg.fr/~dischler/">Jean-Michel Dischler </a> Textures procédurales <br />
12h00 - Repas (en autonomie dans le quartier) <br />
14h00 - <a href="">Jad Khoury </a> Adaptive Polygon Meshes on the GPU<br />
14h30 - <a href="https://mribar03.bitbucket.io/">Mickaël Ribardière </a> Modèles de BRDF micro-facettes<br />
15h00 - Pause café <br />
15h15 - <a href="http://www.vision.ee.ethz.ch/~vanhoeyk/pro/">Kenneth Vanhoey </a> Intrinsic Image Decomposition using Deep Learning<br />
15h45 - <a href="https://www.irisa.fr/frvsense/Kadi.Bouatouch">Kadi bouatouch</a> De l’holographie optique aux défis de l’holographie numérique<br />
End - Table ronde, nouvelles et évolutions du GT Rendu et fin des journéesGuillaume Gilethttp://www.blogger.com/profile/11560506643280973720noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-16208943630521071712017-02-08T00:36:00.004-08:002017-02-08T00:37:49.376-08:00Programme du GT rendu du 16 février 2017Bonjour à tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG RV
aura lieu à Paris le 16 février 2017, dans les locaux de Télécom ParisTech (amphi Estaunié), 46 rue Barrault . Vous êtes bien sur toujours bienvenu pour participer
à cette journée.
<br />
<h4>Programme de cette journée</h4>
09h30 - <a href="http://www.femmeactuelle.fr/var/femmeactuelle/storage/images/actu/vie-pratique/pause-cafe-au-travail-12907/8589049-1-fre-FR/la-pause-cafe-au-travail-un-rituel-sacre.jpg">Acceuil</a> <br />
10h00 - <a href="http://liris.cnrs.fr/~hperrier/" >Helene Perrier </a> Low Discrepancy Blue Noise Sampling <br/>
10h30 - <a href="http://recherche.ign.fr/labos/matis/~devaux" >Alexandre Devaux </a> Realtime Projective Multi-Texturing of Pointclouds and Meshes for a Realistic Street-View Web Navigation <br/>
11h00 - <a href="http://onrendering.com/" >Jonathan Dupuy </a> Tricks for spherical distributions <br/>
11h30 - <a href="http://icube-igg.unistra.fr/en/index.php/Basile_Sauvage" >Basile Sauvage </a> Multi-scale label map extraction texture synthesis<br/>
12h00 - Repas (en autonomie dans le quartier) <br/>
14h00 - <a href="http://www.mines-paristech.fr/Services/Annuaire/philippe-porral" >Philippe Porral </a> Environnements naturels en modes spectral et polarisé<br/>
14h30 - <a href="http://liris.cnrs.fr/guillaume.lavoue/" >Guillaume Lavoué </a> A Subjective Evaluation of Texture Compression Masking Effects<br/>
15h00 - <a href="http://perso.telecom-paristech.fr/~boughida/" >Malik Boughida </a> Cache dynamique fondé sur les échantillons pour le rendu de Monte-Carlo interactif<br/>
15h30 - Pause café <br/>
15h45 - <a href="http://cozot.free.fr/" >Remi Cozot </a> Réglages automatiques des sources de lumière<br/>
16h15 - <a href="http://www.mines-paristech.fr/Services/Annuaire/patrick-callet" >Patrick Callet </a> Métaux, alliages et minéraux à éclat métallique <i> Du nano-cristal à la peinture pour un rendu physiquement réaliste </i> <br/>
End - Table ronde, nouvelles et évolutions du GT Rendu et fin des journéesGuillaume Gilethttp://www.blogger.com/profile/11560506643280973720noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-70535597890473359062017-01-27T08:29:00.001-08:002017-01-27T08:29:49.950-08:00GTRendu 16 fevrier 2017 - Appel a contributionsLa prochaine journée du Groupe de Travail Rendu du GDR IGRV aura lieu
à Paris le Jeudi 16 Février 2017 dans les
<br />locaux de Telecom ParisTech. Pour être sur que ces journées auront
lieu, il nous faut des contributions orales !
<br />
<br />N'hésitez pas à nous contacter pour présenter vos travaux actuels,
qu'ils soient aboutis ou non, publiés ou non.
<br />Les tours d'horizons sur les thèmes émergents sont également encouragés.
<br />* Vous souhaitez faire une présentation : envoyez-nous (à David Vanderhaeghe et Guillaume Gilet) dès à présent un titre.
<br />* Vous souhaitez être présents et participer aux discussions :
prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du
message svp).
<br />
<br />Retrouvez les présentations de l'année dernière sur le blog du GT :
<br />
<br /><a class="moz-txt-link-freetext" href="http://gtrendu.blogspot.com/">http://gtrendu.blogspot.com/</a>
<br />
<br />A très bientôt et en espérant vous voir nombreux pour cette occasion,
<br />Guillaume Gilet et David Vanderhaeghe
<br />
dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-75217169362950288732016-01-27T05:42:00.000-08:002016-02-02T00:18:58.588-08:00Programme du GT rendu du 11 février 2016Bonjour à tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG RV
aura lieu à Paris le 11 février 2016, dans les locaux de l'Ecole des Mines de Paris, 60 boulevard Saint Michel, Paris (Amphi V107). Vous êtes bien sur toujours bienvenu pour participer
à cette journée.
<br />
<h4>
Programme de cette journée</h4>
09h30 - <a href="http://www.femmeactuelle.fr/var/femmeactuelle/storage/images/actu/vie-pratique/pause-cafe-au-travail-12907/8589049-1-fre-FR/la-pause-cafe-au-travail-un-rituel-sacre.jpg">Acceuil</a> <br />
10h00 - <a href="http://cozot.free.fr/">Remi Cozot</a> - Eye-Centered Color Adaptation in Global Illumination,<br />
10h30 - <a href="http://www.irit.fr/~Nicolas.Mellado/">Nicolas Mellado</a> - Mapstyle<br />
11h00 - <a href="http://maverick.inria.fr/Members/Beibei.Wang/">Beibei Wang</a> - PBVLT: a point based method for volumetric light transport computation in participating media with refractive boundaries.<br />
11h30 - Fernando de Graça : Validations perceptives stéréoscopiques d'images physico réalistes de matériaux basées sur des modèles de microstructure<br />
12h30 - repas (en autonomie dans le quartier)<br />
14h00 - <a href="http://www.mines-paristech.fr/Services/Annuaire/philippe-fuchs">Philippe Fuchs</a> - Réalité virtuelle et Interfaçage visuel (invité)<br />
15h00 - <a href="http://manao.inria.fr/team/">Thibaud Lambert</a> - Multi-Resolution Meshes for Feature-Aware Hardware Tessellation<br />
15h30 - <a href="http://crestic.univ-reims.fr/membre/1384-celine-loscos">Celine Loscos</a> - Reflectance-Visibility Decomposition of Images<br />
16h00 - <a href="http://www.femmeactuelle.fr/var/femmeactuelle/storage/images/actu/vie-pratique/pause-cafe-au-travail-12907/8589049-1-fre-FR/la-pause-cafe-au-travail-un-rituel-sacre.jpg">Pause café</a><br />
16h15 - <a href="http://maverick.inria.fr/Membres/Guillaume.Loubet/">Guillaume Loubet </a>- Opacity-preserving LOD representation of complex objects<br />
16h45 - <a href="https://eheitzresearch.wordpress.com/">Eric Heitz</a>- Real-time area-light shading<br />
17h15 - <a href="http://static.lexpress.fr/medias_9950/w_2048,h_890,c_crop,x_0,y_403/w_1520,h_855,c_fill,g_north/v1412937819/l-assemblee-nationale-le-24-septembre-2014-lors-du-debat-sur-l-engagement-francais-en-irak_5094754.jpg">Table ronde</a> et fin de la journée
dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-14684491409057980572015-12-22T06:22:00.005-08:002016-01-27T05:42:02.760-08:00Appel à participation - GT Rendu du 11 février 2016<h2>
<span style="font-family: "helvetica"; font-size: 12px;">Bonjour à tous,</span></h2>
<br style="font-family: Helvetica; font-size: 12px;" />
<span style="font-family: "helvetica"; font-size: 12px;">La prochaine journée du Groupe de Travail Rendu du GDR IGRV aura lieu à Paris <u>le jeudi 11 février</u>. Attention, le lieu change : cette année, la journée au lieu à <u>l'Ecole des Mines de Paris, 60 boulevard Saint Michel</u>, et est co-organisée avec le laboratoire CAOR. Le lieu exact sera spécifié ultérieurement.</span><br />
<br style="font-family: Helvetica; font-size: 12px;" />
<span style="font-family: "helvetica"; font-size: 12px;">Pour être sûr que ces journées aient lieu, il nous faut des contributions orales ! N'hésitez pas à nous contacter pour présenter vos travaux actuels, qu'ils soient aboutis ou non, publiés ou non. Les tours d'horizons sur les thèmes émergents sont également encouragés. Voici la marche à suivre si vous souhaitez participer à cette nouvelle édition :</span><br />
<span style="font-family: "helvetica"; font-size: 12px;">* Vous souhaitez faire une présentation : envoyez-nous (David et Jean-Philippe) dès à présent un titre.</span><br />
<span style="font-family: "helvetica"; font-size: 12px;">* Vous souhaitez être présents et participer aux discussions : prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du message svp).</span><br />
<span style="font-family: "helvetica"; font-size: 12px;"><br /></span>
<span style="font-family: "helvetica"; font-size: 12px;">En souhaitant vous voir nombreux lors de ces nouvelles journées, </span><br />
<br style="font-family: Helvetica; font-size: 12px;" />
<span style="font-family: "helvetica"; font-size: 12px;">David et Jean-Philippe</span>Jean-Philippe Farrugiahttp://www.blogger.com/profile/02311907448133889891noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-52511712887829122612015-05-27T01:34:00.000-07:002015-06-05T02:44:50.160-07:00Programme du GT Rendu - 10 juin 2015, Telecom ParisTech Bonjour à tous,<i></i><br />
<i><br /></i>La prochaine journée du Groupe de Travail Rendu du GDR IG RV aura lieu à Paris le 10 juin 2015, dans les locaux de Telecom ParisTech, (amphi Estaunié) . Vous êtes bien sur toujours bienvenu pour participer à cette journée.<br />
<br />
Pour info, la veille au soir il y a la soirée "<a href="http://paris.siggraph.org/activites/2014-15/francais-selectionnes">Les français sélectionnés à Siggraph</a>" <br />
<div>
<br /></div>
<div>
<h4>
Programme de cette journe </h4>
</div>
<span style="font-family: inherit;"><span style="font-size: small;"><b>9h30 : </b>Accueil et café </span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>10h :</b></span><span style="font-size: small;"><b style="text-align: justify;"> </b><span style="text-align: justify;"><a href="https://liris.cnrs.fr/membres?idn=gsingh" style="text-align: start;">Gurprit Singh</a>- Variance Analysis for Monte Carlo Integration</span></span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>10h30 : <a href="http://liris.cnrs.fr/~jdupuy/">Jonathan Dupuy</a> - </b> Extracting Microfacet-based BRDF
Parameters from Arbitrary Materials with Power Iterations</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>11h00 :<a href="http://www.unilim.fr/pages_perso/julien.gerhards/"> Julien Gerhards</a> - </b></span><span style="font-size: small;">Partitioned Shadow Volumes</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>11h30</b> : Pause Café (15 min)</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>11h45 : Invited Talk - <a href="https://mrl.nyu.edu/~perlin/">Ken Perlin</a>, NYU Media Research Lab - </b>Prototyping the Future</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>12h45 - 14h :</b> Repas dans les nombreux restos du coin</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><b style="text-align: justify;">14h : </b><b><a href="http://www.fireprographics.com/">Bruno Stefanizzi</a> , </b>AMD -</span></span><span style="font-family: inherit;"><span style="font-size: small;"> Rendu sur architecture hétérogène (CPU+GPU)</span></span><br />
<div wrap="">
<span style="font-family: inherit;"><span style="font-size: small;"><b>14h30 : <a href="http://prism-network.eu/network/earlystageresearcher/carlos-jorge.zubiaga-pena">Carlos Zubiaga</a> - </b>MatCap Decomposition for Dynamic Appearance Manipulation</span></span><br />
<span style="font-size: small; text-align: start;"><b>15h : <a href="https://dpt-info.u-strasbg.fr/~sauvage">Basile Sauvage</a> - </b></span><span style="font-size: small; text-align: start;">Simplification of Meshes with Digitized Radiance</span><br />
<b style="text-align: start;">15h30</b><span style="text-align: start;"> : Pause Café (15 min)</span><br />
<b style="font-family: inherit;">15h45 : <a href="http://xlim-sic.labo.univ-poitiers.fr/membres/momidvar/">Mahmoud Omidvar</a> - </b><span style="font-family: inherit;">Optimisation de cache de luminance en éclairage global</span></div>
<span style="font-family: inherit;"><span style="font-size: small;"><b>16h15 : <a href="http://www-sop.inria.fr/members/Kenneth.Vanhoey">Kenneth Vanhoey</a> - </b><span class="title">Unifying Color and Texture Transfer for Predictive Appearance Manipulation </span></span></span><br />
<span style="font-family: inherit;"><span class="title" style="font-size: small;"><b>16h45 : <a href="http://people.irisa.fr/Adrien.Gruson/">Adrien Gruson</a></b> - </span><span style="font-size: small;">Optimisation de la répartition de l’erreur pour le rendu progressif avec Metropolis</span></span>
<br />
<span style="font-family: inherit;"><span style="font-size: small;"><b>17h15 </b>: </span><span style="font-size: small;">Table ronde / discussion</span></span><br />
<br />
<h3>
Résumés des présentations</h3>
<div style="text-align: justify;" wrap="">
<span style="font-family: inherit;"><span style="font-size: small;"></span></span><br />
<a name='more'></a><span style="font-family: inherit;"><span style="font-size: small;"><br /><b>Prototyping the Future
</b><br /><i>Ken Perlin</i></span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;"><i> </i>
<br />The question our lab at NYU is asking is "How might people in the
future communicate with each other in every day life, as computation
and display technologies continue to develop, to the point where
computer-mediated interfaces are so ubiquitous and intuitive as to be
imperceptible?" To address this, we are combining features of
Augmented and Virtual Realities. Participants walk freely around in
physical space, interacting with other people and physical objects,
just as they do in everyday life. Yet everything those participants see
<br />and hear is computer-mediated, thereby allowing them to share any
reality they wish. A combination of wireless VR, motion capture and
3D audio synthesis simulate the experience of future high resolution
contact lens and spatial audio displays. </span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span><br />
<br />
<div class="title">
<b><span style="font-family: inherit;"><span style="font-size: small;"><a href="https://hal.archives-ouvertes.fr/hal-01150268v2">Variance Analysis for Monte Carlo Integration </a></span></span></b></div>
<div class="title">
<span style="font-family: inherit;"><span style="font-size: small;"><i>Gurprit Singh
</i></span></span></div>
<br />
<span style="font-family: inherit;"><span style="font-size: small;">We propose a new spectral analysis of the
variance in Monte Carlo integration, expressed in terms of the power
spectra of the sampling pattern and the integrand involved. We build our
framework in the Euclidean space using Fourier tools and on the sphere
using spherical harmonics. We further provide a theoretical background
that explains how our spherical framework can be extended to the
hemi-spherical domain. We use our framework to estimate the variance
convergence rate of different state-of-the-art sampling patterns in both
the Euclidean and spherical domains, as the number of samples
increases. Furthermore, we formulate design principles for constructing
sampling methods that can be tailored according to available resources.
We validate our theoretical framework by performing numerical
integration over several integrands sampled using different sampling
patterns. </span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span><br />
<br />
<br />
<b><span style="font-family: inherit;"><span style="font-size: small;"><a href="http://liris.cnrs.fr/victor.ostromoukhov/publications/publications_abstracts.html">Extracting Microfacet-based BRDF Parameters from Arbitrary Materials with Power Iterations</a> </span></span></b><br />
<i><span style="font-family: inherit;"><span style="font-size: small;">Jonathan Dupuy</span></span></i><br />
<br />
<span style="font-family: inherit;"><span style="font-size: small;">We
introduce a novel fitting procedure that takes as input an arbitrary
material, possibly anisotropic, and automatically converts it to a
microfacet BRDF. Our algorithm is based on the property that the
distribution of microfacets may be retrieved by solving an eigenvector
problem that is built solely from backscattering samples. We show that
the eigenvector associated to the largest eigenvalue is always the only
solution to this problem, and compute it using the power iteration
method.</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;">This approach is straightforward to implement, much faster to
compute, and considerably more robust than solutions based on nonlinear
optimizations. In addition, we provide simple conversion procedures of
our fits into both Beckmann and GGX roughness parameters, and discuss
the advantages of microfacet slope space to make our fits editable. We
apply our method to measured materials from two large databases that
include anisotropic materials, and demonstrate the benefits of spatially
varying roughness on texture mapped geometric models.</span></span><br />
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span><br />
<br />
<b><span style="font-family: inherit;"><span style="font-size: small;"><a href="http://www.unilim.fr/pages_perso/frederic.mora/pdf/psv.pdf">Partitioned Shadow Volumes </a></span></span></b></div>
<div style="text-align: justify;" wrap="">
<i><span style="font-family: inherit;"><span style="font-size: small;">Julien Gerhards</span></span></i></div>
<div style="text-align: justify;" wrap="">
<span style="font-family: inherit;"><span style="font-size: small;">Real-time
shadows remain a challenging problem in computer graphics. In this
context, shadow algorithms generally rely either on shadow mapping or
shadow volumes. This paper rediscovers an old class of algorithms that
build a binary space partition over the shadow volumes. For almost 20
years, such methods have received little attention as they have been
considered lacking of both robustness and efficiency. We show that these
issues can be overcome, leading to a simple and robust shadow
algorithm. Hence we demonstrate that this kind of approach can reach a
high level of performance. Our algorithm uses a new partition ing
strategy which avoids any polygon clipping. It relies on a Ternary
Object Partitioning tree, a new data structure used to find if an image
point is shadowed. Our method works on a triangle soup and its memory
footprint is fixed. Our experiments show that it is efficient and
robust, including for finely tessellated models</span></span></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span><br />
<br />
<div wrap="">
<b><span style="font-family: inherit;"><span style="font-size: small;">Rendu sur architecture hétérogène (CPU+GPU)</span></span></b></div>
<div wrap="">
<i><span style="font-family: inherit;"><span style="font-size: small;">Bruno Stefanizzi</span></span></i></div>
<div wrap="">
Nous exposerons les dernières technologies et API de rendu sur architecture unifiant le CPU et le GPU pour une meilleur performance et efficacité énergétique du matériel.</div>
<div wrap="">
<i><span style="font-family: inherit;"><span style="font-size: small;">*** </span></span></i></div>
</div>
<div style="text-align: justify;">
<br /></div>
<div style="text-align: justify;">
<b><a href="http://www-sop.inria.fr/members/Kenneth.Vanhoey/pro/index.php?page=research&lang=en"><span style="font-family: inherit;"><span style="font-size: small;"><span class="title">Simplification of Meshes with Digitized Radiance</span></span></span></a></b></div>
<div style="text-align: justify;">
<i><span style="font-family: inherit;"><span style="font-size: small;"><span class="title">Basile Sauvage</span></span></span></i></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;"><span class="title"><br /></span></span></span></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;"><span class="title">View-dependent surface color of virtual objects can be represented by
outgoing radiance of the surface.
In this paper we tackle the processing of outgoing radiance stored as a
vertex attribute of triangle meshes.
Data resulting from an acquisition process can be very large and
computationally intensive to render.
We show that when reducing the global memory footprint of such acquired
objects, smartly reducing the spatial resolution is an effective
strategy for overall appearance preservation.
Whereas state-of-the-art simplification processes only consider scalar
or vectorial attributes, we conversely consider radiance functions
defined on the surface for which we derive a metric.
For this purpose, several tools are introduced like coherent radiance
function interpolation, gradient computation, and distance measurements.
Both synthetic and acquired examples illustrate the benefit and the
relevance of this radiance-aware simplification process.</span></span></span></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;"><span class="title">*** </span> </span></span></div>
<div style="text-align: justify;">
<br /></div>
<div style="text-align: justify;">
<b><span style="font-family: inherit;"><span style="font-size: small;"><a href="http://www.irisa.fr/prive/kadi/agnes/pi-.pdf">Optimisation de cache de luminance en éclairage global</a></span></span></b></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;"><i>Mahmoud Omidvar</i></span></span></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;"><br /></span></span></div>
<div dir="ltr" style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;">La
simulation d’éclairage est un processus qui s’avère plus complexe
(temps de calcul, coût mémoire, mise en oeuvre complexe) pour les
matériaux brillants que pour les matériaux lambertiens ou spéculaires.
Afin d’éviter le calcul coûteux de certains termes de l’équation de
luminance (convolution entre la fonction de réflexion des matériaux et
la distribution de luminance de l’environnement), nous proposons une
nouvelle structure de données appelée Source Surfacique Équivalente
(SSE). L’utilisation de cette structure de données nécessite le
pré-calcul puis la modélisation du comportement des matériaux soumis à
divers types de sources lumineuses (positions, étendues). L’exploitation
d’algorithmes génétiques nous permet de déterminer les paramètres des
modèles de BRDF, en introduisant une première source d’approximation.
L’approche de simulation d’éclairage utilisée est basée sur un cache de
luminance. Ce dernier consiste à stocker l’éclairement incident sous
forme de SSE en des points appelés enregistrements. Durant la simulation
d’éclairage, l’environnement lumineux doit également être assimilé à un
ensemble de sources surfaciques équivalentes (en chaque enregistrement)
qu’il convient de définir de manière dynamique. L’approche des Sources
Surfaciques Équivalentes est particulièrement intéressante pour des
matériaux rugueux ou pour les matériaux très brillants placés dans des
environnements relativement uniformes. L’utilisation de SSE a permis de
réduire considérablement à la fois le coût mémoire et le temps de calcul.</span></span></div>
<div style="text-align: justify;">
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span></div>
<div style="text-align: justify;">
<br /></div>
<div class="publi_data" id="OVBED15" style="text-align: justify;">
<b><span style="font-family: inherit;"><span style="font-size: small;"><a href="http://www-sop.inria.fr/members/Kenneth.Vanhoey/pro/index.php?page=research&lang=fr"><span class="title">Unifying Color and Texture Transfer for Predictive Appearance Manipulation</span><span class="authors"> </span></a></span></span></b><br />
<i><span style="font-family: inherit;"><span style="font-size: small;"><span class="authors">Kenneth Vanhoey</span></span></span></i><br />
<span style="font-family: inherit;"><span style="font-size: small;"><span class="authors"> </span></span>
</span><br />
<div class="abstract">
<span style="font-family: inherit;"><span style="font-size: small;">Recent color transfer methods use local information to
learn the transformation from a source to an exemplar image, and then
transfer this appearance change to a target image. These solutions
achieve very successful results for general mood changes, e.g., changing
the appearance of an image from ``sunny'' to ``overcast''. However,
such methods have a hard time creating new image content, such as leaves
on a bare tree. Texture transfer, on the other hand, can synthesize
such content but tends to destroy image structure. We propose the first
algorithm that unifies color and texture transfer, outperforming both by
leveraging their respective strengths. A key novelty in our approach
resides in teasing apart appearance changes that can be modeled simply
as changes in color versus those that require new image content to be
generated. Our method starts with an analysis phase which evaluates the
success of color transfer by comparing the exemplar with the source.
This analysis then drives a selective, iterative texture transfer
algorithm that simultaneously predicts the success of color transfer on
the target and synthesizes new content where needed. We demonstrate our
unified algorithm by transferring large temporal changes between
photographs, such as change of season -- e.g., leaves on bare trees or
piles of snow on a street -- and flooding.</span></span>
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span><br />
<br />
<b>Optimisation de la répartition de l’erreur pour le rendu progressif avec Metropolis</b></div>
<div class="abstract">
<i>Adrien Gruson </i></div>
<div class="abstract">
</div>
<div class="abstract">
La
répartition de l’erreur sur le plan image est un élément important de
réduction du bruit pour des images générées avec des algorithmes de
rendu réaliste. Les algorithmes de rendu basés Metropolis-Hasting sont
bien adaptés à des scènes complexes (visibilité, matériaux, ...).
Cependant, dans ces méthodes il est difficile de contrôler la
répartition des échantillons sur le plan image. Certains travaux ont
proposé des solutions à ce problème dans le cadre du tracé de chemin.
Nous présenterons une nouvelle fonction d’importance ayant pour but de
répartir l’erreur sur le plan image dans le cas du photon mapping
progressif.<br />
<div>
<div>
<div class="title">
<span style="font-family: inherit;"><span style="font-size: small;">***</span></span></div>
</div>
</div>
</div>
</div>
<br />
<span style="font-size: small;"><span style="font-family: inherit;"><b> </b></span></span>dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-18690288638425583532015-04-27T02:37:00.002-07:002015-04-27T02:39:01.906-07:00Appel : journée du GTR le 10 juin 2015Bonjour à tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IGRV aura lieu à Paris le mercredi 10 Juin 2015, dans les
locaux de Telecom ParisTech.<br />
<br />
Pour cette journée, nous aurons le plaisir d'écouter un exposé de <i>Ken Perlin </i>(NYU Media Research Lab).<br />
<br />
Mais pour être sur que ces journées auront lieu, il nous faut des contributions orales !
N'hésitez pas à nous contacter pour présenter vos travaux actuels, qu'ils soient aboutis ou non, publiés ou non.
Les tours d'horizons sur les thèmes émergents sont également encouragés.<br />
<br />
<ul>
<li>Vous souhaitez faire une présentation : envoyez-nous (David et moi même) dès à présent un titre. </li>
<li>Vous souhaitez être présents et participer aux discussions :
prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du message svp). </li>
</ul>
A très bientôt et en espérant vous voir nombreux pour cette occasion,<br />
<br />
Guillaume Gilet et David Vanderhaeghedlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-59756549790912299422014-06-05T08:09:00.000-07:002014-06-12T05:37:56.759-07:00Programme du GT Rendu - 12 juin 2014, Telecom ParisTech Bonjour à tous,<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG RV aura lieu à
Paris le 12 juin 2014, dans les locaux de Telecom ParisTech, (amphi
Emeraude). Vous êtes bien sûr toujours bienvenu pour participer à cette journée.<br />
<br />
Voici le programme de cette journée :<br />
<b> 9h30</b> : Accueil et café<br />
<b>10h00</b> : <a href="http://manao.inria.fr/perso/~raymond/">Boris Raymond</a> - Optimizing BRDF Orientations for the Manipulation of Anisotropic Highlights <br />
<b>10h30</b> : <a href="http://yenapas.fr/">Thomas Subileau</a> - Manipulation de l'espace des chemins pour l'édition en synthèse d'images<br />
<b>11h00</b> : Exposé invité <a href="http://people.mpi-inf.mpg.de/~ritschel/">Tobias Ritschel</a>, MPI Informatik, Saarbrücken.<br />
12h – 14h Repas désorganisé dans les nombreux restos du coin. <br />
<b>14h00</b> : <a href="http://crestic.univ-reims.fr/membre/1500-jennifer-bonnard">Jennifer Bonnard</a> - Reconstruction d'images 3D HDR <br />
<b>14h30</b> : <a href="http://www.guerillarender.com/">Cyril Corvazier</a> - Guerilla Render practical issues<br />
15h – 15h30 : Pause <br />
<b>15h30</b> : Hélène Perrier - Génération de niveaux de détails continus<br />
<b>16h00</b> : <a href="http://www-lisic.univ-littoral.fr/spip.php?article50&membre=73">Julien Dehos</a> - Multi-scene-images using single-image-stereograms. <br />
<b>16h30</b> : Table ronde/discussion. dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-32198761906348077942014-04-25T22:48:00.001-07:002014-04-25T22:48:44.380-07:00Appel : journée du GTR le 12 juin 2014Bonjour à tous,
<br />
<br />
La prochaine journée du Groupe de Travail Rendu du GDR IG aura lieu à
Paris le 12 juin 2014 de 9h30 a 17h00, dans les locaux de Telecom
ParisTech.
<br />
L'invité de ce GT rendu est Tobias Ritschel, qui a reçu la "Young
Researcher Award" d'Eurographics 2014.
<br />
<br />
Il nous faut bien entendu des contributions orales.
<br />
Afin que le GT rendu puisse exister, n'hésitez pas à venir présenter vos
travaux actuels, qu'ils soient aboutis ou non, publiés ou non.
<br />
Toute contribution sera bienvenue et appréciée a sa juste valeur. Il est
important que le GT Rendu soit une occasion d'échanges et de discussions
pour notre communauté. Cela passe également par une participation forte
des membres permanents de nos laboratoires.
<br />
<br />
* Si vous souhaitez faire une présentation : envoyez-nous (à Guillaume Gilet et David Vanderhaeghe) dès à présent un titre.
<br />
* Si sous souhaitez être présents et participer aux discussions :
prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du
message svp).
<br />
<br />
En espérant vous voir nombreux,
<br />
Guillaume Gilet et David Vanderhaeghe
dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-2479907177950140152013-10-16T00:44:00.000-07:002013-10-18T00:42:22.999-07:00Programme du GT Rendu - 17 Octobre, Telecom ParisTech <i>Edit post journée : les liens vers les ressources présentées, les
points abordés durant la table ronde. Plus de trente participants pour
cet édition !</i><br />
<i> </i> <br />
Bonjour à tous,<i><br /></i>
La prochaine journée du Groupe de Travail Rendu du GDR IG aura lieu à
Paris le 17 octobre 2013, dans les locaux de Telecom ParisTech, (amphi
Emeraude) . Vous êtes bien sur toujours bienvenu pour participer à cette journée.<br />
<br />
Voici le programme de cette journée :<br />
<b>9h30</b> : Accueil et café<br />
<b>10h-10h30</b> : Kenneth Vanhoey - <a href="http://dpt-info.u-strasbg.fr/~kvanhoey/index.php?page=research&lang=fr"> <b>On-the-Fly Multi-Scale Infinite Texturing from Example</b></a>, papier SIGGRAPH Asia 2013<br />
<b>10h30-11h30</b> : Exposé invité par <a href="http://www.icare3d.org/"><b>Cyril Crassin</b></a> sur nvidia research, l'architecture des GPUs et leurs nouvelles fonctionnalités.<br />
<b>12h00-14h00</b> : Repas<br />
<b>14h00-14h30</b> : Eric Heitz Linear - <a href="http://hal.inria.fr/hal-00858220/en"><b>Efficient Antialiased Displacement and Reflectance Mapping</b></a>, papier SIGGRAPH ASIA 2013<b> </b><br />
<b>14h30-15h00</b> : Emmanuelle Tauzia - <b>Un nouveau modèle de BRDF physique basé micro-facettes</b><br />
15h00 : Pause Café (15 min)<br />
<b>15h15-15h45</b> : Guillaume Bouchard -<a href="http://liris.cnrs.fr/publis/?id=6352"><b> Improving Robustness of Monte-Carlo Global Illumination with Directional Regularization</b></a>, sketch SIGGRAPH ASIA 2013<br />
<b>15h45-16h15</b> : Adrien Bousseau -<a href="http://www-sop.inria.fr/reves/Basilic/2013/LPBAD13/"> <b>Depicting Stylized Materials with Vector Shade Trees</b></a>, papier SIGGRAPH 2013<br />
<b>16:15-17h00</b> : Table ronde / discussion<br />
<ul>
<li>organisation du GT rendu</li>
<li>GPU</li>
<li>les problèmes ouverts en rendu</li>
<li>la communication vers le grand public vis à vis de la recherche en informatique graphique et rendu</li>
<li>le cursus en informatique graphique ou comment attirer les étudiants</li>
</ul>
dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-19107372246646347962013-09-13T01:47:00.001-07:002013-09-13T01:47:42.031-07:00Appel : journée du GTR le 17 octobre 2013Bonjour et bonne rentrée à tous,
<br />
<br />La prochaine journée du Groupe de Travail Rendu du GDR IG aura lieu à
Paris le 17 octobre 2013, dans les locaux de Telecom ParisTech.
<br />La thématique de ce GT Rendu portera principalement sur le GPU, ses
possibilités et limitations actuelles, les attentes de la communauté
pour la prochaine génération de cartes. Bien entendu, les exposés ne
sont pas limités à cette thématique et toute contribution sera bienvenue
et appréciée a sa juste valeur. Il est important que le GT Rendu soit
une occasion d'échanges et de discussions pour notre communauté. Cela
passe également par une participation forte des membres permanents de
nos laboratoires.
<br />
<br />Nous aurons le plaisir d'assister à un exposé invité de <a href="http://blog.icare3d.org/">Cyril Crassin</a>,
chercheur chez NVIDIA Research.
<br />
<br />Afin que le GT rendu puisse exister, n'hésitez pas à nous faire part de
vos contributions, travaux actuels ou en cours, ou tours d'horizon.
<br />
<br />* Si vous souhaitez faire une présentation : envoyez-nous (à Guillaume Gillet et David Vanderhaeghe) dès à présent un titre.
<br />* Si sous souhaitez être présents et participer aux discussions :
prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du
message svp).
<br />
<br />En espérant vous voir nombreux,
<br />Guillaume Gilet et David Vanderhaeghe
<br />
dlyrhttp://www.blogger.com/profile/17963421288146167375noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-70951652600129066532013-03-05T00:21:00.000-08:002013-03-06T01:03:17.731-08:00Programme du GT Rendu du 8 Mars<br />
<div class="p1">
Bonjour à tous, </div>
<div class="p2">
<br /></div>
<div class="p1">
Voici le programme des prochaines journées du GT Rendu, qui auront lieu à Telecom ParisTech le 8 mars 2013.</div>
<div class="p1">
<br /></div>
<div class="p1">
9h30 accueil - café</div>
<div class="p2">
<br /></div>
<div class="p1">
10h00 -10h30 : Maxime Maria (IG - XLIM/SIC - Poitiers), <b>Topological ray-tracing on GPU for interactive visualization of architectural environments</b><br />
</div>
<div class="p1">
10h30 -11h00 : Ricardo Marques (IRISA - Rennes), <b>Bayesian Monte-Carlo pour le calcul de l'éclairement global</b></div>
<div class="p1">
11h00 -12h00 : Exposé invité par <a href="http://zurich.disneyresearch.com/~wjarosz/"><span class="s1">Wojciech Jarosz</span></a> (Disney Research, Zurich), détails plus bas.</div>
<div class="p1">
12h00 -12h30 : informations importantes concernant le GDR IG et le GT Rendu</div>
<div class="p2">
<br /></div>
<div class="p1">
12h30 - 14h00 : repas (libre) dans un des nombreux restaurants de la butte au cailles</div>
<div class="p2">
<br /></div>
<div class="p1">
14h00 -14h30 : Leila Schemali (CGG - TelecomParisTech - Paris), <b>Perceived Depth Editing for Stereovision</b></div>
<div class="p1">
14h30 -15h00 : Nicolas Pavie (XLIM - Limoges), <b>rendu procédural d'herbe par bruit de convolution</b></div>
<div class="p1">
15h00 -15h30 : Kenneth Vanhoey (iCube - Strasbourg), <b>Robust Fitting on Poorly Sampled Data for Surface Light Field Rendering and Image Relighting</b></div>
<div class="p2">
<b></b><br /></div>
<div class="p1">
Pause café (15 min)</div>
<div class="p2">
<br /></div>
<div class="p1">
15h45 -16h15 : Eric Heitz (Maverick - Grenoble), <b>FIltering color maps textures and surfaces</b></div>
<div class="p1">
16h15 -16h45 : Jean-Claude Iehl (LIRIS - Lyon), <b>Diffuse and specular reflectance from displaced surfaces</b></div>
<div class="p1">
16h45 -17h30 : Table ronde / discussion</div>
<div class="p1">
--</div>
<div class="p2">
<br /></div>
<div class="p1">
Exposé invité : </div>
<div class="p1">
--</div>
<div class="p1">
<b>Title</b>: The Perils of Evolutionary Rendering Research: Beyond the Point Sample</div>
<div class="p2">
<br /></div>
<div class="p1">
<b>Abstract</b>:</div>
<div class="p1">
In this two-part talk, I will first give a brief introduction of the Disney Research Zurich lab. I'll explain the lab's primary research areas, our overall research strategy, and the unique opportunities and challenges associated with being at the intersection of academic and industrial research.</div>
<div class="p2">
<br /></div>
<div class="p1">
In the second half of the talk I will argue that the way we approach many difficult problems in rendering today is fundamentally flawed. We typically start with an existing, proven solution to a problem (e.g., global illumination on surfaces), and try to extend the solution to handle more complex scenarios (e.g., participating media rendering). I'll show that, although this evolutionary approach is often very intuitive, it can lead to algorithms that are significantly limited by their evolutionary legacy. To make major progress, we may have to rethink (and perhaps even reverse) this evolutionary approach. I'll show concrete examples of how evolutionary research has lead to suboptimal solutions, and how a revolutionary strategy --- one that starts with the more difficult, more general, and higher-dimensional problem --- though initially more daunting, can lead to significantly better solutions. These case studies all reveal that moving beyond the ubiquitous point sample may be necessary for major progress.</div>
<div class="p2">
<br /></div>
<div class="p2">
<br /></div>
<div class="p1">
<b>Short Bio</b>:</div>
<div class="p1">
Wojciech Jarosz is a Research Scientist at Disney Research Zürich heading the rendering group, and an adjunct lecturer at ETH Zürich. Prior to joining Disney, Wojciech obtained his Ph.D. (2008) and M.S. (2005) in computer graphics from UC San Diego, and his B.S. (2003) in computer science from the University of Illinois, Urbana-Champaign.</div>
<div class="p2">
<br /></div>
<div class="p1">
Wojciech's research is concerned with deriving theoretical models and developing efficient algorithms for simulating, manipulating, and physically realizing complex visual appearance. His publications explore practical applications in a variety of areas in computer graphics including: global illumination; complex illumination and materials; participating media; Monte Carlo methods and efficient sampling; high-dynamic range imaging; and computational materials and displays. His work in these areas has been incorporated into production rendering systems and used in the making of feature films, including Disney's <i>Tangled</i> (2010).</div>
<div class="p1">
<br /></div>
<div class="p1">
En espérant vous voir nombreux à ces journées, </div>
<div class="p1">
<br /></div>
<div class="p1">
Jean-Philippe et David.</div>
Jean-Philippe Farrugiahttp://www.blogger.com/profile/02311907448133889891noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-47081597596102462712013-02-11T05:32:00.000-08:002013-02-11T05:32:07.552-08:00Appel : journée du GTR le 8 mars 2013
<br />
<div class="p1">
Bonjour à tous,</div>
<div class="p2">
<br /></div>
<div class="p1">
La prochaine journée du <a href="http://gtrendu.blogspot.com/"><span class="s1">Groupe de Travail Rendu</span></a> (ex GTRV) du GDR IG aura de nouveau lieu à Paris <b>le 8 mars 2013</b>, dans les locaux de Telecom ParisTech, amphi emeraude. Pour cette nouvelle journée, nous aurons le plaisir d'écouter un exposé invité de <a href="http://zurich.disneyresearch.com/~wjarosz/"><span class="s1">Wojciech Jarosz</span></a>, de Disney Zurich. Le programme vous sera communiqué dès qu'il sera prêt.</div>
<div class="p2">
<br /></div>
<div class="p1">
Mais pour être sur que ces journées auront lieu, il nous faut des contributions orales !</div>
<div class="p2">
<br /></div>
<div class="p1">
N'hésitez donc pas à nous contacter pour présenter vos travaux actuels, qu'ils soient aboutis ou non, publiés ou non.</div>
<div class="p1">
Les tours d'horizons sur les thèmes émergents sont également encouragés. Afin que Wojciech puissent suivre les présentations, il sera préférable de présenter en anglais. Donc, </div>
<div class="p2">
<br /></div>
<div class="p1">
* Si vous souhaitez faire une présentation : envoyez-nous (David et moi même) dès à présent un titre.</div>
<div class="p1">
* Si sous souhaitez être présents et participer aux discussions :</div>
<div class="p1">
prévenez-nous simplement par mail (mettre [GT Rendu] dans le sujet du message svp).</div>
<div class="p2">
<br /></div>
<div class="p1">
Retrouvez l'appel complet et les présentations de l'année dernière sur le <a href="http://gtrendu.blogspot.com/"><span class="s1">blog</span></a> du GT :</div>
<div class="p3">
<span class="s2"><a href="http://gtrendu.blogspot.com/">http://gtrendu.blogspot.com/</a></span></div>
<div class="p2">
<br /></div>
<div class="p1">
A très bientôt,</div>
<div class="p2">
<br /></div>
<div class="p1">
Jean-Philippe Farrugia et David Vanderhaeghe</div>
Jean-Philippe Farrugiahttp://www.blogger.com/profile/02311907448133889891noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-86223673531874036202012-09-25T23:59:00.002-07:002012-09-25T23:59:27.759-07:00Annulation de la journée du 5 octobre
<br />
<div class="p1">
Bonjour à tous, </div>
<div class="p2">
<br /></div>
<div class="p1">
Une nouvelle journée du GTRV était planifiée début octobre à Telecom ParisTech. Malheureusement, des soucis de logistiques indépendants de notre volonté nous ont empêché d'organiser correctement cette journée dans les temps. Après une rapide discussion entre organisateurs, nous avons estimé qu'il était préférable de reporter cette journée à mars 2013 plutôt qu'en novembre ou décembre, afin de redonner un peu souffle aux discussions et à permettre à notre invité de planifier sa venue dans un délai confortable. </div>
<div class="p2">
<br /></div>
<div class="p1">
La prochaine journée du GTRV aura donc lieu aux alentours de mars 2013, toujours à Telecom ParisTech. Nous aurons normalement un invité "premium". L'appel à participation sera lancé en début d'année 2013.</div>
<div class="p2">
<br /></div>
<div class="p1">
Nous nous excusons pour ce contretemps facheux, et nous vous donnons rendez-vous en mars 2013.</div>
<div class="p2">
<br /></div>
<div class="p1">
David Vanderhaeghe et Jean-Philippe Farrugia</div>
Jean-Philippe Farrugiahttp://www.blogger.com/profile/02311907448133889891noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-11224773616130217972012-03-09T01:56:00.000-08:002012-07-18T07:22:54.350-07:00GT Rendu le lundi 19 mars 2012<div dir="ltr" style="text-align: left;" trbidi="on">
<span style="font-family: arial; white-space: pre-wrap;">Le </span><b style="font-family: arial; white-space: pre-wrap;">Groupe de Travail Rendu et Visualisation</b><span style="font-family: arial; white-space: pre-wrap;"> s'est de nouveau réuni à Paris, le </span><b style="font-family: arial; white-space: pre-wrap;">lundi 19 mars 2012</b><span style="font-family: arial; white-space: pre-wrap;">, dans les locaux de </span><b style="font-family: arial; white-space: pre-wrap;">Telecom ParisTech</b><span style="font-family: arial; white-space: pre-wrap;"> (aka. ENST) :</span><br />
<br />
<span style="font-family: arial;"><span style="white-space: pre-wrap;"><b><u>Programme :</u></b>
<b>9h30-10h Accueil avec café et viennoisieries</b>
<b>10h-11h30 Session 1</b>
<ul><li><i>The use of spectroscopic ellipsometry measured data for physically based rendering</i></li>Orateur : Fernando da Graça
CAOR - Mines ParisTech
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume1')
.style.display=='none') {document.getElementById('resume1')
.style.display=''}else{document.getElementById('resume1')
.style.display='none'}">résumé</button>
<div id="resume1" style="display:none">
A methodology to create spectrum-based renderings using Spectroscopic Ellipsometry (SE) data is presented. The proposed approach uses the notion of index of refraction obtained from SE measurements. This work is part of a larger project called Lumière Interactions Matériaux Aspect (LIMA), which is a collaboration between academic researchers at ENSMP: Centre de Morphologie et Mathématique, Centre des Matériaux, Centre de Conception Assistée par Ordinateur et Robotique (CAOR), and industrial researchers: ELDIM, NAXAGORAS, and Scalable Graphics. The approach is thoroughly described, giving particular emphasis to the reflectance model, optical effects such as multiple reflections and interference resulted from multiple thin films stacked. Furthermore, this presentation also highlights the issue of the measurement of the spectral environment illumination in order to produce coherent spectral-based renderings, and the modelling of the wavelength dependent anisotropy reflection model.
</div>
<li><i>Practical Frequency Analysis of Light Transport</i></li>Orateur : Laurent Belcour
ARTIS - LJK - INRIA Grenoble-Rhône-Alpes
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume2')
.style.display=='none') {document.getElementById('resume2')
.style.display=''}else{document.getElementById('resume2')
.style.display='none'}">résumé</button>
<div id="resume2" style="display:none">
In this talk, we will explore extensions of Durand et al. work on Frequency Analysis of Light transport.
First, we will extend their analysis to participating media and moving objects while keeping the derivations general. Then, we will propose a tool, the covariance matrix, that allows to perform analysis on the spectrum without the need of storing a complete frequency spectrum. We will present work-in-progress applications such as adaptive sampling or reconstruction from sparse sampling.
</div>
<li><i>Rendu basé images à partir de nuages de points denses</i></li>Orateur : Boris Aireau
IG - XLIM-SIC - Univ. de Poitiers
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume3')
.style.display=='none') {document.getElementById('resume3')
.style.display=''}else{document.getElementById('resume3')
.style.display='none'}">résumé</button>
<div id="resume3" style="display:none">
Nous présentons un système de visualisation basé points pour naviguer de manière interactive et sans contraintes dans des environnement issus de photographies prises à main levée. Ce système produit un affichage très rapide et permet de s'abstenir d'une reconstruction géométrique polygonale souvent difficile. De plus, aucune intervention de l'utilisateur n'est nécessaire durant l'étape de reconstruction.
</div>
</ul><b>11h30-11h45 Pause</b>
<b>11h45-12h45 Session 2</b>
<ul><li><i>Génération de textures procédurales par bruit spectral</i></li>Orateur : Guillaume Gilet
SIR - XLIM - Univ. de Limoges
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume4')
.style.display=='none') {document.getElementById('resume4')
.style.display=''}else{document.getElementById('resume4')
.style.display='none'}">résumé</button>
<div id="resume4" style="display:none">
Ces travaux proposent d'aider à la création de textures procédurale grâce à une extraction automatique des paramètres d'un bruit à partir d'un dessin ou d'une image. Nous introduisons pour cela une nouvelle fonction de bruit, caractérisée par une distribution d’énergie arbitraire dans le domaine spectral et obtenu par une décomposition adaptative de la distribution d’énergie spectrale d'un exemple en régions rectangulaires, chacune pouvant être associée à un noyau de convolution.
</div>
<li><i>Interactive, high-quality rendering of large B-Rep models using multiresolution trim structures</i></li>Orateur : Frédéric Claux
IRIT - Univ. Toulouse et Global Vision Systems
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume5')
.style.display=='none') {document.getElementById('resume5')
.style.display=''}else{document.getElementById('resume5')
.style.display='none'}">résumé</button>
<div id="resume5" style="display:none">
We present a multiresolution trim structure for large B-Rep models visualization. Previous rendering approaches based on trim textures have limitations of different natures, ranging from excessive memory consumption to low rendering performance, with sometimes the necessity of using continuous streaming. We propose to use a quadtree acceleration structure adapted to fast GPU evaluation. This quadtree stores references to trimming curves that are accessed in a fragment shader to perform point classification in an implicit fashion. We decouple the trimming curves generation and the creation of the acceleration structure, which lessens the memory requirements without sacrificing runtime performance. The way we store multiresolution information inside the nodes of the quadtree enables us to do shallow lookups when possible, increasing performance and reducing screen flicker. Together with an hybrid implementation of the rendering based on both raycasting and tessellation, we demonstrate that trim-texture based rendering is possible at interactive frame rates for huge CAD models with over a million trimmed surfaces.
</div></ul>
<b>12h45-14h30 Pause repas dans les restaurants de la Butte aux Cailles</b>
<b>14h30-15h30 Exposé invité</b>
<ul><li><i>Polychromie, dorures et effets merveilleux médiévaux - propositions pour une simulation physiquement réaliste</i></li>Orateur : Patrick Callet
MAS - Ecole Centrale Paris / Chercheur associé au CAOR - Mines ParisTech
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume6')
.style.display=='none') {document.getElementById('resume6')
.style.display=''}else{document.getElementById('resume6')
.style.display='none'}">résumé</button>
<div id="resume6" style="display:none">
Nous proposons à la fois un ensemble de méthodes scientifiques et quelques résultats d’une démarche interdisciplinaire pour tenter de retrouver ce qui a pu tomber sous le regard de l’homme du Moyen Age en matière de polychromie et d’éclairage naturel. Deux monuments sont en cours d’étude, de modélisation, d’enquête scientifique : l’église abbatiale de Royaumont (détruite à la Révolution française) et Notre Dame de Paris.
Dans une première partie nous exposons les phénomènes physiques, les « acteurs » de l’interaction lumière-matière qui conduisent à la couleur et nous rapprochent de l’apparence visuelle de monuments disparus ou transformés. Dans quelle mesure pouvons-nous voir le passé et plus encore le comprendre aujourd’hui sans tomber dans les pièges de l’anachronisme ? L’utilisation de mesures sur des traces de polychromie, de dorure, de cendres piégées sur la pierre, etc. combinées à l’étude de la lumière naturelle et de ses variations spatiales et spectrales nous permettent de voir, dans une certaine mesure, à quoi pouvait bien ressembler un monument dans un état de ses états antérieurs. Nous nous limiterons à une approche de physicien-simulateur, à ce qu’il y a de plus objectif dans la connaissance des matériaux, procédés et leur mise en œuvre. Les visions proposées s’appuieront sur l’hypothès que l’oeil de l’homme médiéval percevait la lumière comme l’oeil de l’homme contemporain (pas d’évolution génétique sur une période si courte).
Dans une seconde partie nous appliquons ces modèles à une partie de la façade occidentale de Notre-Dame de Paris.
</div></ul>
<b>15h30-15h45 Pause</b>
<b>15h45-16h45 Session 3</b>
<ul><li><i>Lazy visibility evaluation for exact soft shadows</i></li>Orateur : Frédéric Mora
SIR - XLIM-DMI - Univ. de Limoges
<li><i>Skeleton based importance sampling for path tracing</i></li>Orateur : Venceslas Biri
A3SI - LIGM - Univ. Paris-Est Marne-la-Vallée
<button title="Click to show/hide content" type="button"
onclick="if(document.getElementById('resume7')
.style.display=='none') {document.getElementById('resume7')
.style.display=''}else{document.getElementById('resume7')
.style.display='none'}">résumé</button>
<div id="resume7" style="display:none">
Dans le contexte de scènes larges et fouillées, le flux lumineux peut prendre des chemins complexes pour atteindre l'observateur. Dans de tels cas, zones très obscures, les algorithmes stochastiques traditionnels, comme le "path tracing", auront des difficultés à calculer des images exemptes de bruit. Nos travaux visent à résoudre ce problème grâce au squelette scène 3d utilisé comme représentation grossière de la scène et permettant de trouver les flux lumineux de plus haute énergie. Nous verrons comment nous utilisons ces squelettes, pour améliorer l’échantillonnage d'importance lors du calcul de l'intégrale du rendu. Notre méthode ajoute peu de temps de calcul tout en produisant des images plus précise.
</div></ul>
<b>16h45-17h15 Table ronde - Organisation prochaine journée</b></span></span><span style="font-family: arial; white-space: pre-wrap;">
</span><br />
<div>
<span style="font-family: arial; font-size: medium; white-space: pre-wrap;"><br /></span></div>
</div>François Roussellehttp://www.blogger.com/profile/13529441813960744723noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-32855492011755177022011-09-21T05:54:00.000-07:002011-10-18T07:25:28.928-07:00GT Rendu le jeudi 06 octobre 2011<div dir="ltr" style="text-align: left;" trbidi="on">
<div>
<span class="Apple-style-span" style="font-family: arial; white-space: pre-wrap;">La journée du <b>Groupe de Travail Rendu et Visualisation</b> a eu lieu à Paris, le <b>jeudi 06 octobre 2011</b>, dans les locaux de <b>Telecom ParisTech</b> (aka. ENST)</span><br />
<span class="Apple-style-span" style="font-family: arial; white-space: pre-wrap;"> </span><br />
<span class="Apple-style-span" style="font-family: arial; white-space: pre-wrap;"><b><i><u>Programme :</u></i></b></span><br />
<div>
<span class="Apple-style-span" style="font-family: arial; font-size: medium;"><span class="Apple-style-span" style="white-space: pre-wrap;"><br /></span></span></div>
<i><u><span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;">10h00-11h30 Session 1</span></u>
</i><br />
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-aconinx.pdf">Visualisation de données scalaires incertaines en utilisant un bruit animé adapté perceptivement</a>
</b>Orateur : Alexandre Coninx (EDF R&D - Collège de France - LJK)</span></span></li>
</ul>
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-ccorvazier.pdf">Rendu en production : contraintes, tendances et perspectives</a>
</b>Orateur : Cyril Corvazier (Guerilla Renderer / Mercenaries Engineer)</span></span></li>
</ul>
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-apajot.pdf">Sample-space and image-space speckles removal for Monte-Carlo rendering</a>
</b>Orateur : Anthony Pajot (Université de Toulouse - CNRS)</span></span></li>
</ul>
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><u>11h45-12h45 Session 2</u></span></span><br />
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-mhollander.pdf">ManyLoDs: Parallel Many-Views Level of Details for Real Time Global Illumination</a>
</b>Orateur : Matthias Holländer (Telecom ParisTech - CNRS)
Vidéo : </span></span><object style="height: 292px; width: 480px"><param name="movie" value="http://www.youtube.com/v/5geG9EbEqC8?version=3"><param name="allowFullScreen" value="true"><param name="allowScriptAccess" value="always"><embed src="http://www.youtube.com/v/5geG9EbEqC8?version=3" type="application/x-shockwave-flash" allowfullscreen="true" allowScriptAccess="always" width="480" height="292"></object></li>
</ul>
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-gguennebaud.pdf">Soft shadow mapping: high quality filtering, and shadow map resolution prediction</a>
</b>Orateur : Gael Guennebaud (INRIA Bordeaux)</span></span></li>
</ul>
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><u>12h45-14h15 Pause Repas</u>
</span></span><br />
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><u><br /></u></span></span><br />
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span" style="white-space: pre-wrap;"><u>14h15-15h15 Session 3</u></span></span><br />
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-slefebvre.pdf">Coherent Parallel Hashing</a></b><br />Orateur : Sylvain Lefevbre (INRIA Nancy)</span></li>
<li><span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-pbarla.pdf">Dynamic Stylized Shading Primitives</a></b><br />Vidéos :</span>
<div class="separator" style="clear: both; text-align: center;">
<iframe allowfullscreen='allowfullscreen' webkitallowfullscreen='webkitallowfullscreen' mozallowfullscreen='mozallowfullscreen' width='320' height='266' src='https://www.blogger.com/video.g?token=AD6v5dww8dJashWloW88HTXGqXjMJYJLkq-QnVBxydzovKsvWIPVJPMkrIjaMKFdMfNmv_BuZieuMJHQtnT6sYaMYw' class='b-hbp-video b-uploaded' frameborder='0'></iframe></div>
<br />
<div style="text-align: center;">
<iframe allowfullscreen='allowfullscreen' webkitallowfullscreen='webkitallowfullscreen' mozallowfullscreen='mozallowfullscreen' width='320' height='266' src='https://www.blogger.com/video.g?token=AD6v5dyXr8maxpPpYLZvLq28pFSaXmfuQcVvSOq7gc1hy-DWOPLlB6qAT0Oui4Hnj-JEIwqDjZynoO1wG5VHdQDOdQ' class='b-hbp-video b-uploaded' frameborder='0'></iframe></div>
<span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;">Orateur : Pascal Barla (INRIA Bordeaux)</span></li>
</ul>
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span"><u style="white-space: pre-wrap;">15h30-16h30 Session 4</u> </span></span><br />
<ul style="text-align: left;">
<li><span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-rperrot.pdf">Visibilité et tracé de photons</a></b><br />Orateur : Romuald Perrot (Université de Poitiers - CNRS)</span></li>
<li><span class="Apple-style-span" style="font-family: Arial, Helvetica, sans-serif;"><b><a href="http://www.afig.fr/Rendu/Files/GTR_11_10_06/gtrv-jpfarrugia.pdf">Une approche statistique pour le calcul de visibilité sur des nuages de points</a></b><br />Orateur : Jean-Philippe Farrugia (Université Lyon 1 - CNRS)<br />Vidéo :<br />
<div class="separator" style="clear: both; text-align: center;">
<iframe allowfullscreen='allowfullscreen' webkitallowfullscreen='webkitallowfullscreen' mozallowfullscreen='mozallowfullscreen' width='320' height='266' src='https://www.blogger.com/video.g?token=AD6v5dwYrYM98R81JeeEKsG51xyEe4NsEQrbSvGWDPdRZAu7kXFnP4TQoqTckJLSpoX45p8J_I-SPw_nqy6fCVY1' class='b-hbp-video b-uploaded' frameborder='0'></iframe></div>
</span></li>
</ul>
<span class="Apple-style-span" style="font-family: arial;"><span class="Apple-style-span">
<u style="white-space: pre-wrap;">16h30-17h00 Table Ronde<a href="http://www.youtube.com/watch?v=5geG9EbEqC8&feature=player_embedded">http://www.youtube.com/watch?v=5geG9EbEqC8&feature=player_embedded</a></u></span></span></div>
</div>François Roussellehttp://www.blogger.com/profile/13529441813960744723noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-12204949202107529392011-03-04T00:23:00.000-08:002011-03-22T14:18:16.876-07:00GT Rendu le 29 mars 2011 ANNULÉ<span class="Apple-style-span" style="font-family: arial; white-space: pre-wrap; font-size: medium; ">Malgré le succès de la précédente édition et devant le peu de contributions orales reçues à ce jour, nous avons décidé d'annuler la journée du GTRV du 29 mars et de n'organiser qu'une seule journée cette année, début octobre.<br />Nous tenons à remercier les quelques personnes ayant répondues à l'appel, et les invitons à venir présenter leurs travaux en octobre.</span><div><span class="Apple-style-span" ><span class="Apple-style-span" style="white-space: pre-wrap;"><br /></span></span></div><div><span class="Apple-style-span" style="font-family: arial; white-space: pre-wrap; font-size: medium; "><br /></span></div>François Roussellehttp://www.blogger.com/profile/13529441813960744723noreply@blogger.com0tag:blogger.com,1999:blog-3302735584086174546.post-86230099129711490602010-10-08T08:22:00.000-07:002010-10-13T00:52:44.263-07:00GT Rendu du 8 octobre 2010----------------------<br />
Programme<br />
----------------------<br />
<ul><li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/vortex_ligum_gomez.pdf">Génération procédurale de tuiles occultantes : <i>Feng Shui Occlusion Tiling</i></a>,<br />
Dorian Gomez,<br />
Université Paul Sabatier / IRIT<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/liris_bouchard.pdf">Lancé de rayon en milieu fortement spéculaire</a>,<br />
Guillaume Bouchard,<br />
Université Lyon I / LIRIS<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/ligm_duran_duboi_herubel.pdf">Modèles massifs et Deferred Shading</a>,<br />
Adrien Herubel,<br />
Duran Duboi - Université Paris Est / LIGM<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/enst_maxplanck_ritschel.pptx">Interactive On-Surface Signal Deformation</a>,<br />
Tobias Ritschel,<br />
Telecom ParisTech / LTCI<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/liris_watchel.pdf">Capture et modélisation de sources ponctuelles pour la réalité augmentée</a>, <br />
Florent Wachtel,<br />
Université Lyon I / LIRIS<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/crestic_sic_loscos.pdf">Composition d’Images HDR et Relighting</a>, <br />
Céline Loscos,<br />
IUT de Reims<br />
</li>
<li>Animation in Voxel-based Global Illumination, <br />
Maciej Mostowski, <br />
Université de Clermont-Ferrand / LAIC<br />
</li>
<li><a href="http://www.afig.fr/Rendu/Files/GTR_10_10_08/isit_lisic_dehos.pdf">Une analyse en simulation des réflexions multiples lors d’une projection immersive</a>, <br />
Julien Dehos, <br />
Université d’Auvergne (IUT du Puy en Velay) / ISIT</li>
</ul>Anonymoushttp://www.blogger.com/profile/02521283040779685047noreply@blogger.com0