]> git.llucax.com Git - z.facultad/75.42/plaqui.git/blobdiff - Model/src/conduct.cpp
* Se agrega directorio para ejemplos con el primer ejemplo exitoso. (traten de poner...
[z.facultad/75.42/plaqui.git] / Model / src / conduct.cpp
index 5eb885cc327f361d09c70a05f0036731d7cadaae..a0e40fe7019a40c57192c385bc424f792f9aec97 100644 (file)
@@ -1,16 +1,17 @@
 
 #include "conduct.h"
 
 #include "conduct.h"
-#include <iostream>
 
 using namespace PlaQui::Model;
 
 Conduct::Conduct(const std::string &_name):Transport(_name)
 {
 
 using namespace PlaQui::Model;
 
 Conduct::Conduct(const std::string &_name):Transport(_name)
 {
-       max_flow = actual_flow = 0.0f;
+       max_flow = 0.0f;
 
        // Inicio los parametros de conectores
        in_slots = 1;
        out_slots = 1;
 
        // Inicio los parametros de conectores
        in_slots = 1;
        out_slots = 1;
+       actual_flow = INFINITO;
+       updated = false;
 }
 
 Conduct::~Conduct()
 }
 
 Conduct::~Conduct()
@@ -20,14 +21,20 @@ Conduct::~Conduct()
 void Conduct::recieve_msg(int msg, IConector *who, void *data)
 {
        switch (msg) {
 void Conduct::recieve_msg(int msg, IConector *who, void *data)
 {
        switch (msg) {
-               case MSG_QUERY_MAX_FLOW: {
+               case MSG_QUERY_MAX_FLOW_OUT: {
+                       if (updated) {
+                               who->recieve_msg(MSG_RESPONSE_MAX_FLOW, this, &actual_flow);
+                       }
+                                                                                                                                                                
                        // Me preguntan por el flujo máximo.
                        // Primero me actualizo, y luego respondo
                        // Me preguntan por el flujo máximo.
                        // Primero me actualizo, y luego respondo
-                       update();
-                       float tmp = (actual_flow>max_flow)?max_flow:actual_flow;
-                       // FIXME : no tiene que ir
-                       if (out_list.size() == 0) tmp = max_flow;
-                       who->recieve_msg(MSG_RESPONSE_MAX_FLOW, this, &tmp);
+                       updated = true;
+                       float tmp = *((float *)data);
+                       actual_flow = (actual_flow>max_flow)?max_flow:actual_flow;
+                       actual_flow = (actual_flow<tmp)?actual_flow:tmp;
+
+                       send_msg(OUT, MSG_QUERY_MAX_FLOW_OUT, &actual_flow);
+                       who->recieve_msg(MSG_RESPONSE_MAX_FLOW, this, &actual_flow);
                }
                break;
                case MSG_RESPONSE_MAX_FLOW: {
                }
                break;
                case MSG_RESPONSE_MAX_FLOW: {
@@ -43,24 +50,32 @@ void Conduct::recieve_msg(int msg, IConector *who, void *data)
        }
 }
 
        }
 }
 
-void Conduct::update()
+void Conduct::update(int dir)
 {
        // Si ya me actualice, no lo tengo que hacer de nuevo
 {
        // Si ya me actualice, no lo tengo que hacer de nuevo
-       if (updated) return;
+       if (updated) {
+               return;
+       }
        // Seteo mi actualizar en true para evitar entrar de nuevo
        // Seteo mi actualizar en true para evitar entrar de nuevo
-       actual_flow = 99999;
        updated = true;
        updated = true;
-       send_msg(OUT, MSG_QUERY_MAX_FLOW);
-       send_msg(IN, MSG_QUERY_MAX_FLOW);
+       actual_flow = max_flow;
+       send_msg(OUT, MSG_QUERY_MAX_FLOW_OUT, (void *)&actual_flow);
 }
 
 void Conduct::simulate()
 {
        if (!updated) {
 }
 
 void Conduct::simulate()
 {
        if (!updated) {
+#ifdef DEBUG
+               std::cout << name << "::sin actualizar!" << std::endl;
+#endif
                return;
        }
 
                return;
        }
 
-       std::cout << name << "::Flujo actual = " << actual_flow << std::endl;
+#ifdef DEBUG
+       std::cout << name << "::Flujo actual = " << actual_flow << " de " << max_flow << std::endl;
+#endif
        updated = false;
        updated = false;
+       color_updated = false;
 }
 
 }
 
+