Session 1

Mercredi 30 nov. 09h50 - 11h05
Modérateur : David Vanderhaeghe
Multi-Scale Label-Map Extraction for Texture Synthesis

Yitzchak David Lockerman1, Basile Sauvage2, Rémi Allègre2, Jean-Michel Dischler2, Julie Dorsey1, Holly Rushmeier1

1 Yale University, Computer Graphics Group, New Haven, USA
2 ICube, Université de Strasbourg, CNRS, France

Papier déjà publié | SIGGRAPH 2016

Les méthodes de synthèse de texture par l'exemple, bien qu'ayant d'importantes applications en informatique graphique et en vision, ne sont pas couramment utilisées dans la pratique. Une raison est que la création de bons exemples d'entrée reste difficile et fastidieuse. Dans cet article, nous présentons une méthode non supervisée d'analyse des contenus d'une texture à plusieurs échelles, qui extrait automatiquement de bons exemples à partir d'images naturelles. Contrairement aux travaux précédents notre méthode est automatique, ce qui libère l'utilisateur du réglage de paramètres, et lui permet de se concentrer sur l'utilisation de palettes de textures extraites de l'image. La plupart des textures naturelles contiennent des motifs à plusieurs échelles qui varient spatialement (non-stationnarité). Les algorithmes de synthèse gèrent cela par une phase d'analyse de l'exemple, qui permettra de guider la synthèse. Notre méthode d'analyse étiquette les motifs à plusieurs échelles, sans supervision. Dans une première étape, elle construit une hiérarchie de superpixels. Dans une seconde étape, elle étiquette les superpixels, à l'aide d'une marche aléatoire dans le graphe de similarité entre superpixels et d'une factorisation matricielle non-négative. Il en résulte des cartes d'étiquettes qui décrivent les pixels et les régions. Nous présentons plusieurs applications à la synthèse, parmi lesquelles le guidage de synthèse non-stationnaire, la sélection de contenus, et la peinture de texture. La méthode est gère de grands exemples en entrée, et s'adapte aux images naturelles, qui contiennent différentes régions texturées.

Laplace-Beltrami operator on Digital Surfaces

T. Caissard1, D. Coeurjolly1, J.O. Lachaud2 and T. Roussillon1

1 Université de Lyon, CNRS, INSA-Lyon, LIRIS, UMR 5205, F-69621, France
2 Université de Savoie, CNRS, LAMA UMR 5127, F-73776, France

Papier original j•FIG 2016

Many problems in image analysis, digital processing and shape optimization are expressed as variational prob- lems and involve the discritization of laplacians. Indeed, PDEs containing Laplace-Beltrami operator arise in surface fairing, mesh smoothing, mesh parametrization, remeshing, feature extraction, shape matching, etc. The discretization of the laplace-Beltrami operator has been widely studied, but essentially in the plane or on triangu- lated meshes. In this paper, we propose a digital Laplace-Beltrami operator, which is based on the heat equation described by BELKIN et al (2008) and adapted to 2D digital curves. We give elements for proving its theoretical convergence and present an experimental evaluation that confirms its convergence property.

Rendu de Monte Carlo Élastique

Sylvain Rousseau1 et Tamy Boubekeur1

1 LTCI, CNRS, Télécom ParisTech, Université Paris Saclay

Papier original j•FIG 2016

La synthèse d'images photoréalistes est un processus de simulation du transport de la lumière dans une scène tridimensionnelle qui est extrêmement coûteux en temps de calcul. En particulier, l'émergence du rendu basé physique dans l'industrie, principalement effectué à l'aide de la méthode du lancer de rayons de Monte Carlo, impose l'utilisation de fermes de calcul dédiées toujours plus puissantes, et ne s'accommode de scènes au contenu complexe qu'au prix de temps d'exécution souvent prohibitifs dans un contexte industriel. L'architecture de ces fermes passe de plus difficilement à l'échelle à chaque évolution majeure du critère de qualité attendu en production. Dans ce contexte, l'exploitation de ressources de calculs différentes, non dédiées mais massive, apparait comme une piste sérieuse pour la génération d'images de synthèse toujours plus précises et riches de contenu. Dans cet article, nous ébauchons un système de rendu conçu pour exploiter les grands flottes de machines hétérogênes, telles que celles présentes dans les grandes infrastructures informatiques publiques ou privées, avec pour but d'exploiter au maximum le temps de calcul disponible en conservant la généricité de déploiement du cloud computing. Ces flottes ont souvent pour particularité de représenter des clusters de taille importante mais composés de machines de puissances trés variables et exploitant des réseaux disposant d'une faible bande passante et d'une forte latence. Certaines, notamment dans l'industrie du web, prennent la forme de clusters principalements conçus pour effectuer de l'apprentissage automatique sur de grande masses de données et leur architecture matérielle n'est pas adaptée, en général, au calcul en synthèse d'image. Nous présentons ici une méthode permettant d'exploiter efficacement la puissance de ces deux types d'architectures matérielles.

Session 2

Mercredi 30 nov. 11:45 - 13:00
Modérateur : Basile Sauvage
A 3D shape hierarchy based on the skeleton

T. Blanc-Beyne1, G. Morin1, K. Leonard2, S. Hahmann3, A. Carlier1 et M.-P. Cani3

1 IRIT - Institut National de Recherche en Informatique de Toulouse
2 CSUCI - California State University Channel Islands
3 Univ. Grenoble Alpes, CNRS (LJK), INRIA, Grenoble

Papier original j•FIG 2016

This paper presents a multilevel analysis of 3D shapes based on their medial axes. Such an analysis is important for many applications including shape comparison, editing, and compression. We propose an algorithm to compute a 3D generalization of a skeleton-based salience measure in 2D, the weighted
extended distance function (WEDF), and use it for robust, unsupervised shape decomposition into a hierarchy of parts.

Deep Partitioned Shadow Volumes Using Stackless and Hybrid Traversals

F. Mora1, J. Gerhards1, L. Aveneau2, and D. Ghazanfarpour1

1 University of Limoges
2 University of Poitiers

Papier déjà publié | Eurographics Symposium on Rendering 2016

Computing accurate hard shadows is a difficult problem in interactive rendering. Previous methods rely either on Shadow Maps or Shadow Volumes. Recently Partitioned Shadow Volumes (PSV) has been introduced. It revisits the old Shadow Volumes Binary Tree Space Partitioning algorithm, leading to a practicable and efficient technique. In this article, we analyze the PSV query algorithm and identify two main drawbacks: First, it uses a stack which is not GPU friendly; its size must be small enough to reduce the register pressure, but large enough to avoid stack overflow. Second, PSV struggles with configurations involving significant depth complexity, especially for lit points. We solve these problems by adding a depth information to the PSV data structure, and by designing a stackless query. In addition, we show how to combine the former PSV query with our stackless solution, leading to a hybrid technique taking advantage of both. This eliminates any risk of stack overflow, and our experiments demonstrate that these improvements accelerate the rendering time up to a factor of 3.

Surface derivatives computation using Fourier Transform

Yohann Béarzi1, Julie Digne1

1 LIRIS CNRS UMR 5205 - Université Lyon 1

Papier original j•FIG 2016

We present a method for computing high order derivatives on a smooth surface at a point p by analyzing the vibrations of the surface along circles in the tangent plane, centered at p. By computing the Discrete Fourier Transform of the deviation of S from the tangent plane restricted to those circles, a linear relation between the Fourier coefficients and the derivatives can be expressed. Thus, given a smooth scalar field defined on the surface, all its derivatives at p can be computed simultaneously. The originality of this method is that no direct derivation process is applied to the data. Instead, integration is performed through the Discrete Fourier Transform, and the result is expressed as a one dimensional polynomial. We derive two applications of our framework namely normal correction and curvature estimation which we demonstrate on synthetic and real data.

Session 3

Mercredi 30 nov. 15:20 - 16:10
Modératrice : Dobrina Boltcheva
Simulation de modèles mécaniques à base topologique à l'aide de règles de transformation de graphes

Fatma Ben Salah1, Hakim Belhaouari1, Agnès Arnould1 et Philippe Meseure1

1 Université de Poitiers, Laboratoire XLIM, UMR CNRS 7252

Papier original j•FIG 2016

Cet article présente un cadre général et générique qui combine un modèle mécanique et un modèle topologique (les cartes généralisées) pour l’animation physique d’objets maillés déformables. Ce cadre permet d’utiliser, en 2D ou 3D, plusieurs types de maillages, éventuellement basés sur des mailles élémentaires différentes. Il permet la simulation de nombreux modèles physiques avec des propriétés diverses d’homogénéité et d’isotropie. Toutes les informations mécaniques sont stockées dans le modèle topologique, aucune structure auxiliaire n’est nécessaire. Le logiciel Jerboa a été utilisé car son langage à base de règles a permis un prototypage rapide des différents modèles.

Projective Texturing Uncertain Geometry: Silhouette-Aware Box-Filtered Blending Using Integral Radial Images

Mathieu Brédif1

1 Université Paris-Est, IGN, SRIG, MATIS, 73 avenue de Paris, 94160 Saint Mandé, France

Papier déjà publié | Photogrammetric Computer Vision 2014

Projective texturing is a commonly used image based rendering technique that enables the synthesis of novel views from the blended reprojection of nearby views on a coarse geometry proxy approximating the scene. When scene geometry is inexact, aliasing artefacts occur. This introduces disturbing artefacts in applications such as street-level immersive navigation in mobile mapping imagery, since a pixel-accurate modelling of the scene geometry and all its details is most of the time out of question. The filtered blending approach applies the necessary 1D low-pass filtering on the projective texture to trade out the aliasing artefacts at the cost of some radial blurring. This paper proposes extensions of the filtered blending approach. Firstly, we introduce Integral Radial Images that enable constant time radial box filtering and show how they can be used to apply box-filtered blending in constant time independently of the amount of depth uncertainty. Secondly, we show a very efficient application of filtered blending where the scene geometry is only given by a loose depth interval prior rather than an actual geometry proxy. Thirdly, we propose a silhouette-aware extension of the box-filtered blending that not only account for uncertain depth along the viewing ray but also for uncertain silhouettes that have to be blurred as well.

Session 4

Mercredi 30 nov. 16:30 - 17:45
Modérateur : Rémi Ronfard
Télécollaboration asymétrique en réalité virtuelle

T. Porssut1 et J.-R. Chardonnet1

1 Le2i UMR6306, Arts et Métiers, CNRS, Univ. Bourgogne Franche-Comté, HeSam, Institut Image

Papier original j•FIG 2016

Nous présentons une première étude de combinaison de deux systèmes asymétriques de réalité virtuelle dans un contexte de travail collaboratif : un système de type CAVE et un casque immersif. L’architecture, de type serveur- client, permet une collaboration entre plusieurs utilisateurs. Les expériences sur une tâche de construction de puzzles en un temps limité, seul et en collaboration, montrent que l’utilisation combinée de systèmes asymétriques CAVE et casques permet d’améliorer les performances des utilisateurs. Par ailleurs les utilisateurs préfèrent le travail en collaboration et sont plus efficaces ensemble. Ces résultats ouvrent des perspectives intéressantes de combinaison de systèmes de réalité virtuelle de nature différente pour la télécollaboration.

Massic points, Bézier curves and conics: a survey

Garnier1 L. and Bécar2 J.-P.

1 LE2I, UMR CNRS 6306, University of Burgundy, 21000 Dijon, France
2 LAMAV-CGAO, CNRS 2956, Le Mont-Houy, 59313 Valenciennes cedex 9

Papier déjà publié | Automatic Deduction in Geometry 2016

It is well known that rational quadratic Bézier curves define conics. The use of massic points permits one to define a semi-conic in the Euclidean plane. Moreover, from a given quadratic Bézier curve, we determine the properties of the underlying conic using only one theorem which leads to a very simple program.

Implicit-based Secondary Motion for Character Animation

Valentin Roussellet1, Nicolas Mellado1 & Loïc Barthe1

1 IRIT - Université de Toulouse

Papier original j•FIG 2016

Generating secondary motion effects in interactive skinning techniques remains a challenging open problem hindering the realism of digital animated content. In this paper, we show that anatomic implicit models can be efficiently included in the implicit skinning framework for modeling complex secondary motions in real time.

Session 5

Jeudi 01 déc. 09:15 - 10:55
Modératrice : Céline Loscos
Perceptual Effect of Shoulder Motions on Crowd Animations

Ludovic Hoyet1, Anne-Hélène Olivier2, Richard Kulpa2, Julien Pettré1

1 Inria    
2 Univ. Rennes

Papier déjà publié | SIGGRAPH 2016

A typical crowd engine pipeline animates numerous moving characters according to a two-step process: global trajectories are generated by a crowd simulator, whereas full body motions are generated by animation engines. Because interactions are only considered at the first stage, animations sometimes lead to residual collisions and/or characters walking as if they were alone, showing no sign to the influence of others. In this paper, we investigate the value of adding shoulder motions to characters passing at close distances on the perceived visual quality of crowd animations (i.e., perceived residual collisions and animation naturalness). We present two successive perceptual experiments exploring this question where we investigate first, local interactions between two isolated characters, and second, crowd scenarios. The first experiment shows that shoulder motions have a strong positive effect on both perceived residual collisions and animation naturalness. The second experiment demonstrates that the effect of shoulder motions on animation naturalness is preserved in the context of crowd scenarios, even though the complexity of the scene is largely increased. Our general conclusion is that adding secondary motions in character interactions has a significant impact on the visual quality of crowd animations, with a very light impact on the computational cost of the whole animation pipeline. Our results advance crowd animation techniques by enhancing the simulation of complex interactions between crowd characters with simple secondary motion triggering techniques.

Modeling Symmetric Developable Surfaces from a Single Photo

Amélie Fondevilla1, Adrien Bousseau2, Damien Rohmer1,3, Stefanie Hahmann1, Marie-Paule Cani1

1 Univ. Grenoble Alpes & CNRS (LJK), Inria   
2 Inria Sophia-Antipolis
3 Univ. Lyon, CPE Lyon

Papier original j•FIG 2016

We propose a method to reconstruct 3D developable surfaces from a single 2D drawing traced and annotated over a side-view photo of a partially symmetrical object. Our reconstruction algorithm combines symmetry and orthogonality shapes cues within a unified optimization framework that solves for the 3D position of the Bezier control points of the drawn curves while being tolerant to drawing inaccuracy and perspective distortions. We then rely on existing surface optimization methods to produce a developable surface that interpolates our 3D curves. Our method is particularly well suited for the modeling and fabrication of fashion items as it converts the input drawing into flattened developable patterns ready for sewing.

Repeated Pattern Detection using Convolution Neural Networks' Activations

L. Lettry1, M. Perdoch1, K. Vanhoey1 & L. Van Gool1,2

1 Computer Vision Laboratory, ETH Zürich
2 PSI, K.U. Leuven

Papier original j•FIG 2016

We propose a new approach for detecting repeated patterns on a grid in a single image. To do so, we detect repetitions in the space of pre-trained deep CNN filter responses at all layer levels. These encode features at several conceptual levels (from low-level patches to high-level semantics) as well as scales (from local to global). As a result, our method is robust to challenging examples where repeated tiles show strong variation in appearance due to occlusions, lighting or background clutter. Our method contrasts with previous approaches that rely on keypoint extraction, description and clustering or on patch correlation. They generally only detect low-level feature clusters that do not handle complex pattern variations very well.
Our method incorporates high level features implicitly. As shown across all experiments, it is simpler, faster and more robust.

Rendu basé image avec contraintes sur les gradients

Grégoire Nieto1, Frédéric Devernay1, James Crowley1

1 INRIA Grenoble Rhône-Alpes - équipe IMAGINE et PRIMA LIG Laboratoire d’informatique de Grenoble

Papier déjà publié | RFIA 2016

Le rendu basé image consiste à générer un nouveau point de vue à partir d’un ensemble de photos d’une scène. On commence en général par effectuer une reconstruction 3D approximative de la scène, utilisée par la suite pour mélanger les images sources et ainsi obtenir l’image souhaitée. Malheureusement, les discontinuités dans les poids des images sources, dues à la géométrie de la scène ou au placement des caméras, causent des artefacts visuels dans la vue résultante. Dans cet article nous montrons qu’une façon d’éviter ces artefacts est d’imposer des contraintes supplémentaires sur le gradient de l’image synthétisée. Nous proposons une approche variationnelle suivant laquelle l’image cherchée est solution d’un système linéaire résolu de façon itérative. Nous testons la méthode sur plusieurs jeux de données multi-vues structurés et non-structurés, et nous montrons que non seulement elle est plus performante que les méthodes de l’état de l’art, mais elle élimine aussi les artefacts créés par les discontinuités de visibilité.

Session 6

Jeudi 01 déc. 12:15 - 13:05
Modératrice : Céline Roudet
Réalité diminuée : "couper/coller" interactif pour l'aménagement d'intérieur

Julien Fayer1,2, Géraldine Morin1, Simone Gasparini1, Benjamin Coudrin2

1 Université de Toulouse, IRIT-INPT
2 SAS InnerSense, Toulouse

Papier original j•FIG 2016

L'arrivée des capteurs RGB-D comme la Kinect a permis de développer de nouvelles approches en matière de vision par ordinateur et en traitement d'image pour comprendre et interpréter une scène d'intérieur. Nous proposons de mettre en place un scénario de Réalité Diminuée qui est capable non seulement de supprimer des éléments de la scène mais aussi de les déplacer. Nous présentons d'abord un état de l'art sur la compréhension puis l'édition de la scène. Nous abordons ensuite les limites de ces approches. Enfin, nous mettons en évidence les problématiques d'inpainting propres à notre application et les apports qui tiennent compte des résultats issus de la compréhension tridimensionnelle pour améliorer le processus d'édition (suppression ou déplacement).

Un système de synthèse et d’annotation automatique a partir de donnees capturees pour l'animation faciale expressive en LSF

C. Reverdy1,2, S. Gibet1,2, C. Larboulette1,2 et P-F. Marteau1,2

1 Université de Bretagne Sud
2 IRISA

Papier original j•FIG 2016

Ce papier présente le fonctionnement d'un système visant à créer automatiquement des corpus d'animations faciales annotées pour la Langue des Signes Française (LSF) à partir de données issue de Motion Capture. L'animation produite est basée blendshapes, les coefficients du modèle sont calculés à partir des données capturées puis utilisés par le module de reconnaissance afin d'annoter automatiquement ces animations.

Session 7

Jeudi 01 déc. 14:20 - 15:10
Modérateur : Philippe Meseure
Multi-View Inpainting for Image-Based Scene Editing and Rendering

Theo Thonat1, Eli Shechtman2, Sylvain Paris2, George Drettakis1

1 Inria,
2 Adobe Research

Papier déjà publié | International Conference on 3D Vision 2016

We propose a method to remove objects such as people and cars from multi-view urban image datasets, enabling free-viewpoint Image-Based Rendering (IBR) in the edited scenes. Our method combines information from multi-view 3D reconstruction with image inpainting techniques, by formulating the problem as an optimization of a global patch-based objective function. We use IBR techniques to reproject information from neighboring views, and 3D multi-view stereo reconstruction to perform multi-view coherent initialization for inpainting of pixels not filled by reprojection. Our algorithm performs multi-view consistent inpainting for color and 3D by blending reprojections with patch-based image inpainting. We run our algorithm on casually captured datasets, and Google Street View data, removing objects such as cars, people and pillars, showing that our approach produces results of sufficient quality for free-viewpoint IBR on “cleaned up” scenes, as well as IBR scene editing, such as limited displacement of real objects.

Anisotropic LOD selection for Hardware Tessellation

T. Lambert1, P. Bénard1,2, G. Guennebaud1,2

1 Inria Bordeaux Sud-Ouest, France
2 LaBRI (UMR 5800, CNRS, Univ. Bordeaux), France

Papier original j•FIG 2016

With hardware tessellation, highly detailed geometric models are decomposed into patches whose tessellation factor can be specified dynamically and independently at rendering time to control polygon resolution. Yet, to achieve maximum efficiency, an appropriate factor needs to be selected for each patch according to its content (geometry and appearance) and the current viewpoint distance and orientation. We propose a novel patch-based error metric that addresses this problem. It summarizes both the geometrical error and the texture parametrization deviation of a simplified patch compared to the corresponding detailed surface. This metric is compact and can be efficiently evaluated on the GPU along any view direction.

Session 8

Vendredi 02 déc. 09:30 - 10:45
Modérateur : Eric Bittar
Surfacing Curve Networks with Normal Control.

Tibor Stanko1,2,3, Stefanie Hahmann2,3, Georges-Pierre Bonneau2,3, Nathalie Saguin-Sprynski2,3

1 CEA, LETI, MINATEC Campus, Grenoble
2 Université Grenoble Alpes
3 CNRS(Laboratoire Jean Kuntzmann), Inria

Papier déjà publié | Computers & Graphics 2016

Recent surface acquisition technologies based on microsensors produce three-space tangential curve data which can be transformed into a network of space curves with surface normals. This paper addresses the problem of surfacing an arbitrary closed 3D curve network with given surface normals. Thanks to the normal vector input, the patch finding problem can be solved unambiguously and an initial piecewise smooth triangle mesh is computed. The input normals are propagated throughout the mesh. Together with the initial mesh, the propagated normals are used to compute mean curvature vectors. We then compute the final mesh as the solution of a new variational optimization method based on the mean curvature vectors. The intuition behind this original approach is to guide the standard Laplacian-based variational methods by the curvature information extracted from the input normals. The normal input increases shape fidelity and allows to achieve globally smooth and visually pleasing shapes.

Make-Believe: Animating Virtual Characters by Playing and Acting

Adela Barbulescu1, Antoine Begault1, Laurence Boissieux1, Marie Paule Cani1, Maxime Garcia1, Maxime Portaz1, Alexis Viand2, Pierre Heinish2, Romain Dulery2, Rémi Ronfard1, Dominique Vaufreydaz1

1 INRIA Grenoble
2 Grenoble-INP

Papier original j•FIG 2016

Pretend play is a storytelling technique, naturally used from very young ages, which relies on object substitution to represent the characters of the imagined story. We propose "Make-believe", a system which assists the storyteller by generating a virtualized story from a recorded dialogue performed with 3D printed figurines. We capture the gestures and facial expressions of the storyteller using Kinect cameras and IMU sensors and transfer them to their virtual counterparts in the story-world. As a proof-of-concept, we demonstrate our system with an improvised story involving a prince and a witch, which was successfully recorded and transferred into 3D animation.

Single-Image Interactive 3D Generalized Cylinder Modelling

Murat Yirci1, Mathieu Brédif1 and Nicolas Paparoditis1

1 Univ. Paris-Est, LASTIG MATIS, IGN, ENSG, F-94160 Saint-Mande, France

Papier original j•FIG 2016

In this work, we present a new direct approach to reconstruct 3D models of objects in the form of homogeneous, circular generalized cylinders, featuring a planar axis. The input of the proposed method is a single image on which the user strokes guide the modeling process with a user selected prior. The main idea is the combination of human perception (via user strokes) with the computational power (reconstructing the 3D circle sections constituting the generalized cylinders). The proposed method is then successfully applied to generate models of objects in the public spaces (e.g. lamp posts, tree trunks, and pipes).

Session 9

Vendredi 02 déc. 12:05 - 12:55
Modérateur : Adrien Peytavie
Colloidal suspension by SRD-MD simulation on GPU

Công Tâm Tran1,2, Benoît Crespin1,∗, Manuella Cerbelaud2, Arnaud Videcoq2

1 Univ. Limoges, CNRS, XLIM/DMI, UMR 7252, F-87000 Limoges, France
2 Univ. Limoges, CNRS, ENSCI, SPCTS, UMR 7315, F-87000 Limoges, France

Papier original j•FIG 2016

This paper focuses on the simulation of colloidal suspensions on the GPU for soft matter applications, where solvent particles (usually water) interact with bigger, solid particles. Our implementation is based on a coarse-grained model for the solvent named Stochastic Rotation Dynamics (SRD), also known as multi-particle collision dynamics (MPCD). We introduce explicit repulsive interactions between the solute and the solvent particles which are chosen to avoid depletion and to mimic lubrication phenomena. This method, called force coupling is computationally expensive for large systems but we show here how it can be adapted for calculations on graphical processing units (GPU).

Structure and Appearance Optimization for Controllable Shape Design

Jonàs Martínez1, Jérémie Dumas1,2, Sylvain Lefebvre1, Li-Yi Wei3

1 INRIA,  
2 Université de Lorraine,
3 University of Hong Kong

Papier déjà publié | SIGGRAPH Asia 2015

The field of topology optimization seeks to optimize shapes under structural objectives, such as achieving the most rigid shape using a given quantity of material. Besides optimal shape design, these methods are increasingly popular as design tools, since they automatically produce structures having desirable physical properties, a task hard to perform by hand even for skilled designers. However, there is no simple way to control the appearance of the generated objects.
In this paper, we propose to optimize shapes for both their structural properties and their appearance, the latter being controlled by a user-provided pattern example. These two objectives are challenging to combine, as optimal structural properties fully define the shape, leaving no degrees of free dom for appearance. We propose a new formulation where appearance is optimized as an objective while structural properties serve as constraints. This produces shapes with sufficient rigidity while allowing enough freedom for the appearance of the final structure to resemble the input exemplar.
Our approach generates rigid shapes using a specified quantity of material while observing optional constraints such as voids, fills, attachment points, and external forces. The appearance is defined by examples, making our technique accessible to casual users. We demonstrate its use in the context of fabrication using a laser cutter to manufacture real objects from optimized shapes.

Posters

Mercredi 30 nov - vendredi 02 déc, pauses et repas midi
Cartes d'apparence propres de formes dynamiques

Adnane Boukhayma, Vagia Tsiminaki, Jean-Sebastien Franco, Edmond Boyer

LJK, Universite Grenoble Alpes, Inria Grenoble Rhône-Alpes, France

Papier déjà publié | ECCV - European Conference on Computer Vision, 2016

On s'intéresse au problème de construction de représentations efficaces d’apparence de formes en mouvement observées sous différents points de vue. Les systèmes de capture multi-vue permettent de nos jours l'acquisition de modèles spatio-temporels de tels objets dynamiques. Alors que des représentations géométriques efficaces de ces modèles ont été largement étudiées, l'information d'apparence, fournie par les images observées, est généralement considérée pour chaque trame séparément, et aucune stratégie globale ne traite encore le cas ou plusieurs séquences temporelles d'une forme sont disponibles. On propose une représentation qui, pour un sujet donné, s'appuie sur l'analyse en composantes principales pour identifier la structure sous-jacente complexe de l'information d'apparence liée à la forme. La représentation propre résultante incorpore les variabilités de l'apparence de la forme dues au point de vue et au mouvement, à travers les textures propres, et celles dues au inexactitudes locales du modèle géométrique par le biais des déformations propres. En plus d'offrir une représentation compacte, cette décomposition permet l'interpolation et la complétion d’apparence. On évalue sa performance via plusieurs personnages et par rapport à sa capacité de reproduire des apparences réalistes d'une manière compacte.

Synthèse d'animation à partir de vidéos avec le graphe essentiel

Adnane Boukhayma, Edmond Boyer

INRIA Rhône-Alpes

Papier déjà publié | 3DV - International Conference on 3D Vision, 2015

On propose une méthode pour générer des animations avec des séquences de maillages de mouvements élémentaires obtenues à partir de vidéos multi-vue. De nouveaux mouvements qui satisfont à des contraintes de haut-niveau spécifiées par l'utilisateur sont construit en recombinant et interpolant les trames des séquences de maillages observés. L’intérêt des maillages provenant de vidéo est de fournir une information réelle complète sur la forme et de permettre en conséquence des animations réalistes de forme. Le challenge principale dans ce contexte émane de la difficulté de combiner et d'interpoler des poses humaines sans modèle paramétrique de pose, comme dans le cas classique de l'animation basée sur un squelette. Pour remédier à ce problème, on propose deux innovations qui contribuent à deux niveaux différents : Localement entre deux séquences de mouvement, on introduit une nouvelle approche pour générer des transitions réalistes en utilisant les déformations temporelles dynamiques; Plus Globalement, sur un ensemble de séquences de mouvement, on propose le graphe essentiel comme une structure efficace pour encoder les transitions les plus réalistes entre tout les pairs des poses de forme fournis en entrés. Le parcours du graphe essentiel permet de générer des mouvements réalistes optimaux par rapport aux critères de l'utilisateur. On présente des résultats quantitatifs et qualitatifs sur plusieurs bases de donnée de vidéo 3D. Ces résultats montrent que notre méthode se compare favorablement aux stratégies antécédentes qui utilisent les graphes de mouvement standards.

Pages